• Nuestros productos:
  • BSP chattigo • Proveedor oficial de whatsapp
  • chattigo Bot • Atención automatizada
  • Atención humana • Conversaciones en un solo lugar
read

Competencia EEUU-China: Los riesgos de una IA descontrolada

By Yuri Doudchitzky - Autor invitado

Algunos de los pensadores más reconocidos a nivel mundial, entre ellos el israelí Yuval Harari, vienen alertando desde hace años del peligro de desarrollar inteligencia artificial sin controles por parte de los estados nacionales, específicamente Estados Unidos. La doctora en física y youtuber Sabine Hossenfelder, alerta en un reciente video sobre los peligros que se avecinan en este sentido.

La primera medida adoptada por el presidente Donald Trump el día siguiente a su asunción, fue revocar la orden ejecutiva de Joe Biden relativa a medidas que deberían tomarse frente a los riesgos que puede representar esta nueva tecnología tanto para la seguridad del gobierno estadounidense como para sus ciudadanos. No es de extrañar que haya revocado esa orden, considerando que el día anterior Trump estuvo acompañado por Jeff Bezos, Mark Zuckerberg, Elon Musk y Sam Altman en la ceremonia de inauguración de su segunda administración. 

El mensaje fue claro: el gobierno de Estados Unidos y las 7 Magníficas van juntas y sin freno en esta aventura que tendrá serias consecuencias sobre la población mundial. De hecho, pocos después, Trump acompañado por Altman y financistas internacionales anunció el Proyecto Stargate, que implica una inversión total de us$500.000 millones para convertir a Estados Unidos en el líder absoluto de la IA. 

Diseño sin título-Feb-27-2025-06-00-05-5426-PM

En su video Sabine hace notar que poco después de eso, la empresa china DeepSeek apareció con su nuevo modelo R1, que tiene capacidades similares a las del GPT, pero a diferencia del software de OpenAI, requirió menos del 10% de inversión y es de código abierto. Como respuesta a esta sorpresiva aparición, los empresarios tecnológicos estadounidenses decidieron dejar completamente de lado la cautela en cuanto a los posibles riesgos del desarrollo de sistemas de inteligencia artificial. Ahora lo único importante es competir con China a como dé lugar.

A fines del pasado mes de enero renunció a OpenAI, Steven Adler, investigador dedicado a problemas de seguridad en la empresa. “Estoy realmente aterrorizado por el ritmo de desarrollo de la IA”, declaró el exempleado de OpenAI en Twitter. “La carrera global por alcanzar la Inteligencia Artificial General es una apuesta muy peligrosa”.

Adler no es el único. Hacia fines de 2024 la mitad del equipo que trabajaba en seguridad para OpenAI había renunciado. Varios de ellos criticaron públicamente la falta de medidas de seguridad en la empresa. Considerando que DeepSeek tampoco ha adoptado medidas de seguridad (y en parte a eso se debe que los costos de producción hayan sido muy bajos en comparación con los sistemas creados en Estados Unidos) esta tendencia también se está dando en China. Una investigación de Cisco y otra de Unit42 dieron como resultado que DeepSeek no presenta ningún tipo de barreras contra ataques malintencionados.

A todo esto se suma la decisión de Google de dejar de lado su compromiso de no usar la IA para producir armas o sistemas de vigilancia. En pocas palabras: Google (la empresa cuyo lema fue en algún momento “no seas malvado”) se prepara para ir a la guerra. Poco antes, Musk anunció que OpenAI apoyará a American National Labs en lo que respecta a seguridad nuclear. El propósito de OpenAI fue expresado de la siguiente manera: “los laboratorios están enfocados en reducir el riesgo de guerra nuclear y asegurar material nuclear y armas a nivel mundial… Y creemos que es crítico para Open AI colaborar en este compromiso por la seguridad nacional”.

Según 404 Media, Thomas Shedd, exejecutivo de Tesla, está ahora encargado de incluir la IA en los desarrollos de código de la administración federal, lo que  según Hossenfeld es alarmante considerando que los sistemas de IA actuales no sólo son proclives a alucinar, sino que según un estudio reciente son buenos en “content scheming”, que según el estudio significa que es fácil instruir a los modelos de lenguaje actuales para que mientan al usuario.

Otro estudio reciente determinó que cuando los modelos estudiados fueron instruidos para levantar barreras contra contenido dañino, sólo pretendieron hacerlo. Esto fue definido como “alignment faking” (falso alineamiento). Es decir, los modelos se resistieron a ser reentrenados. Finalmente Hossenfelder menciona otro paper donde un equipo de investigadores advierte que el explosivo desarrollo de la IA no representará una repentina toma de poder por parte de los sistemas de IA sino un gradual desempoderamiento de los humanos. A medida que deleguemos en la IA más tareas relativas a las finanzas, la economía y la política, la IA será cada vez más eficiente, y por tanto los humanos serán cada vez menos necesarios para esas tareas, no por la forma en que se desarrollan los softwares, sino por las tareas que les encomendamos.

Los humanos no somos muy eficientes previendo conductas emergentes en sistemas con grandes cantidades de agentes interactuando, sostiene Hossenfelder, ya se trate de humanos o IAs, y una vez que tengamos agentes virtuales trabajando autónomamente, no será tan sencillo desenchufarlos. ¿Qué haremos? ¿Pedir consejos a la IA?  

 

También te pueden interesar:

Métricas e indicadores claves de atención al cliente que debes conocer

Cómo mejorar la atención al cliente en la era digital

Las 100 aplicaciones de IA más usadas en el mundo

 

 

Etiquetas: chatbot, inteligencia artificial, contact center, chattigo, Estrategia de Marketing, Redes Sociales, bots,, IA, chatbots, marketing

AGENDEMOS UNA DEMO