CX Innovación y tendencia

El miedo a la Inteligencia Artificial

Escrito por Ernesto Doudchitzky - CEO de chattigo | Mar 17, 2022 4:32:35 PM

 

Artículo aparecido el 3 de enero pasado en el sitio web de IEEE Spectrumasha Bajema, quien ha sido profesora durante una década en la National Defense University, ha trabajado en la Secretaría de Defensa de EEUU, ha escrito varios libros de ciencia ficción y actualmente dirige el Departamento de Riesgos Convergentes del Council on Strategic Risks.

 

Las películas de Hollywood en las que aparece involucrada la inteligencia artificial y han sido grandes éxitos, tratan sobre máquinas que adquieren inteligencia humana y sensibilidad e inevitablemente se convierten en poderes supremos que destruyen la especie humana. Esta narrativa se aprovecha de nuestro innato terror a la tecnología. Un reflejo del profundo cambio que a menudo acompaña los nuevos desarrollos tecnológicos.

Sin embargo, como dice Malcom Murdock –ingeniero en aprendizaje automático y autor de la novela The Quantum Price: “la inteligencia artificial no necesita tener sentimientos para acabar con todos nosotros. Hay muchos escenarios que podrían destruirnos aun antes de que la IA pueda tener sentimientos y convertirse en un problema.”

En entrevistas con expertos hemos descubierto seis escenarios posibles en el mundo real donde la IA podría tener consecuencias dramáticas, más mundanas que las reflejadas en las películas pero igualmente distópicas. Y la mayoría ni siquiera requiere de un malvado dictador para llevarlas a cabo. Más bien podrían darse simplemente por default, desarrollándose orgánicamente si no se hace nada para detenerlas. Para prevenir estos casos de peores escenarios, debemos abandonar nuestra noción popular respecto a la IA y pensar seriamente sobre sus inesperadas consecuencias.

                              1 - Cuando la ficción define nuestra realidad

Tragedias innecesarias pueden suceder si permitimos que la ficción defina nuestra realidad. Pero ¿qué opciones tenemos cuando no podemos saber cuál es la diferencia entre lo real y lo falso en el mundo digital?

En un escenario aterrador, el aumento de las deepfakes –imágenes falsas; video, audio y texto generados por avanzadas herramientas de aprendizaje automático- algún día podría llevar a aquellos responsables en seguridad nacional a tomar decisiones en base a informaciones falsas, provocando grandes crisis y hasta guerras.

Andrew Lohn, del Centro para la Seguridad y las Tecnologías Emergentes de la Universidad de Georgetown, sostiene que “los sistemas vigentes de IA son capaces de generar informaciones falsas a gran escala”. Al producir grandes volúmenes y variedad de mensajes falsos, estos sistemas pueden ofuscar su verdadera naturaleza y optimizarse hasta lograr el éxito, mejorando el impacto deseado con el tiempo.

La existencia de deepfakes en medio de una crisis puede causar que los líderes duden al tomar decisiones si la validez de la información no es confirmada en el tiempo necesario.

Marina Favaro, del Instituto de Investigación y Políticas de Seguridad, en Alemania, sostiene que “las deepfakes comprometen nuestra capacidad de creer en los flujos de información”. Tanto la acción como la inacción causadas por la posibilidad de deepfakes podrían ser desastrosas para el mundo.

                           2 - Una peligrosa carrera hacia las profundidades

Cuando se trata de IA y seguridad nacional, la velocidad es a la vez la virtud y el problema. Dado que los sistemas vigentes de IA confieren rápidos beneficios para sus usuarios, los primeros países en desarrollar aplicaciones militares obtendrán estratégicas ventajas. Pero, ¿qué diseños de principios deben ser sacrificados en el proceso?  Las fallas más pequeñas podrían quedar expuestas y ser explotadas por piratas informáticos. 

Helen Toner, directora  de Estrategia en el Centro para la Seguridad y las Tecnologías Emergentes de la Universidad de Georgetown sugiere que una crisis podría “brotar de un simple error que apague todas las comunicaciones, provocando que la gente entre en pánico y se detenga la actividad económica. Una persistente falta de información, seguida de algún mal cálculo podría conducir a una espiralización y provocar el caos.”

Vincent Boulanin, investigador del Stockholm International Peace Research Institute (SIPRI), en Suecia, advierte que la mayor catástrofe puede ocurrir “si las mayores potencias toman atajos para sacar ventaja y llegar primeros. Si un país prioriza la velocidad sobre la seguridad, el testeo y la verificación humana, será una peligrosa carrera hacia las profundidades”.

Por ejemplo, líderes en seguridad nacional pueden tener la tentación de delegar decisiones de comando y control, removiendo la supervisión humana de los modelos de aprendizaje automático que todavía no entendemos totalmente, con el fin de “llegar primeros”. En este escenario, aun un lanzamiento automático de misiles de defensa iniciado sin autorización humana podría producir una escalada no intencionada y llevar a una guerra nuclear.

                              3 - El fin de la privacidad y el libre albedrío

Con cada acción digital producimos nuevos datos –emails, mensajes de textos, descargas, compras, posteos, selfies y localizaciones de GPS. Al permitir a empresas y gobiernos acceso ilimitado a esta data, estamos entregando herramientas de vigilancia y control.

Con el agregado de reconocimiento facial, biometría, datos genómicos y análisis predictivo de inteligencia artificial, Andrew Lohn advierte que “estamos entrando en un territorio inexplorado y peligroso con el crecimiento del seguimiento y la vigilancia a través de los datos, y no tenemos idea de las potenciales implicaciones”.

Michael C. Horowitz, director de Perry World House, en la Universidad de Pensilvania, advierte “sobre la lógica de la IA y lo que ésta representa para la represión doméstica. En el pasado, la habilidad de los autócratas para reprimir a sus poblaciones residía en sus fuerzas armadas, que también podían provocar un golpe de estado. La IA puede reducir este tipo de limitaciones. El poder de los datos, una vez colectados y analizados, se extiende mucho más allá de las funciones de monitoreo y vigilancia que permiten un control predictivo. Hoy, los sistemas de IA predicen qué productos vamos a comprar, que entretenimientos vamos a ver y qué links vamos a cliquear. Cuando estas plataformas nos conocen mejor de lo que nos conocemos a nosotros mismos, es posible que no notemos el lento avance que nos roba el libre albedrío y nos somete al control de fuerzas externas. 

                                       4 - Una caja humana de Skinner

La habilidad de un niño para dilatar la inmediata gratificación, para esperar por la segunda golosina, alguna vez fue considerada como un predictor de éxito en la vida. Pronto hasta estos chicos van a  sucumbir ante el tentador condicionamiento de los algoritmos basados en el compromiso.

Los usuarios de redes sociales se han convertido en ratas de laboratorio, viviendo en cajas humanas de Skinner (en referencia al sicólogo que basó su teoría conocida como “conductismo” en experimentos de conducta con ratones en cajas), pegados a las pantallas de sus smartphones, forzados a sacrificar su tiempo y atención a plataformas que obtienen beneficios económicos a su costa.

Helen Toner argumenta que “los algoritmos son optimizados para mantener a los usuarios en la plataforma el mayor tiempo posible”. “Ofreciendo premios en forma de “likes”, comentarios y seguidores, los algoritmos realizan un corto circuito en la forma en que nuestro cerebro trabaja, lo que hace que nuestro próximo compromiso sea irresistible”, según Malcom Murdock.

Para maximizar el beneficio producido por la venta de publicidad, las empresas extraen nuestra atención de nuestros trabajos, nuestras familias y amistades, nuestras responsabilidades y hasta de nuestros pasatiempos. Y para hacer las cosas peores, el contenido en el que estamos inmersos muchas veces nos hace sentir miserables y peor que antes. Toner advierte que “cuanto más tiempo pasamos en estas plataformas, menos tiempo dedicamos a la búsqueda de cosas positivas, productivas, que den significado a nuestras vidas.”

                                   

                                         5 - La tiranía del diseño de IA

Cada día, dedicamos más tiempo de nuestras vidas a máquinas con IA. Esto es un problema, según Horowitz, ya que “todavía tenemos que comprender el problema de los prejuicios en la IA. Aun con las mejores intenciones, los sistemas de IA -tanto el ingreso de datos como los modelos matemáticos- reflejan las limitadas experiencias e intereses de la gente prejuiciosa que los programa. Y todos tenemos nuestros prejuicios”.

Lydia Kostopoulos, vicepresidente de tecnologías emergentes de la empresa de ciberseguridad KnowBe4, argumenta que muchos sistemas de IA fallan en tomar en cuenta diversas experiencias y características de diferentes personas”. Ya que las IA resuelven problemas en base a perspectivas prejuiciosas y datos, en vez de sopesar las necesidades únicas de cada individuo, estos sistemas producen un nivel de conformidad que no existe en la sociedad.

Aun antes del crecimiento de la IA, el diseño de productos comunes a nuestra vida diaria ha representado generalmente a un tipo particular de personas. Por ejemplo, estudios han demostrado que los autos y otras herramientas -incluidos los teléfonos celulares-, han sido diseñados pensados en el hombre blanco promedio, colocando a personas de diferentes características físicas –entre ellas a las mujeres- en condiciones desventajosas, que a veces hasta ponen en riesgo sus vidas.

Cuando los individuos que caen fuera de estas normas basadas en prejuicios son rechazados, marginalizados y excluidos; la IA se torna en una especie de portero kafkiano (en referencia al cuento  Ante la Ley de Franz Kafka), denegando accesos en servicio al cliente, contratación laboral, servicios de salud y muchas cosas más. Los sistemas de IA pueden limitar a la gente más que liberarla de los problemas que enfrentan a diario. Y estas opciones también pueden transformar algunos de los peores prejuicios en prácticas racistas y sexistas de contratación laboral y crédito financiero, así como erróneas y prejuiciadas sentencias judiciales.

              6 - El temor de que la IA prive a la humanidad de sus beneficios

Debido a que hoy la IA corre en base a conjuntos de datos, modelos estadísticos avanzados y algoritmos de predicción, la construcción de máquinas inteligentes descansa en procesos matemáticos. En este espíritu, sostiene Murdock, “el álgebra lineal puede realizar cosas insanas si no tenemos cuidado”. Pero ¿qué pasa si ante el temor de la gente los gobiernos empiezan a regular la IA de modo que la humanidad quede privada de sus beneficios?

Por ejemplo, el programa AlphaFold de Deep Mind obtuvo un gran logro en la predicción de cómo los aminoácidos forman proteínas, haciendo posible a los científicos identificar la estructura del 98,5% de las proteínas humanas. Este logro provee una base para al rápido avance de las ciencias biológicas. O consideremos los beneficios del desarrollo de la comunicación y el entendimiento entre culturas gracias a los sistemas de traducción; o el uso de IA para identificar nuevos tratamientos y curas para enfermedades.

Acciones regulatorias de los gobiernos para protegernos de los peores escenarios posibles podrían ser contraproducentes y tener consecuencias negativas, si tenemos tanto miedo de esta impresionante tecnología que nos resistimos a aprovecharla para el bien que puede hacer en el mundo.