Tendencias

Impacto de la legislación europea sobre IA en la experiencia del consumidor

Escrito por Ernesto Doudchitzky - CEO de chattigo | Oct 3, 2024 8:26:41 PM

 

 

La Ley de Inteligencia Artificial de la Unión Europea entró en vigencia el pasado 1 de agosto y representa el primer conjunto oficial de regulaciones sobre la IA a nivel mundial, que reglamenta la transmisión de datos y la transparencia y supervisión humana sobre los procesos de creación de software de IA.

La Ley tiene una estructura basada en el riesgo, que asigna a los sistemas de IA cuatro categorías: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo o nulo.

Riesgo inaceptable se define como la IA que plantea una clara amenaza a los medios de vida y los derechos de las personas, como la categorización biométrica y la puntuación social. Estos tipos de IA están prohibidos a partir del primero de agosto.

Riesgo alto se refiere a los sistemas de IA que se utilizan en infraestructuras críticas o componentes de seguridad que podrían poner en riesgo a los ciudadanos, por ejemplo los automóviles sin conductor o los robots de IA utilizados en operaciones quirúrgicas. El uso de la IA en servicios esenciales como la calificación crediticia, los procesos de contratación, la aplicación de la ley, las sentencias judiciales, la educación y la migración también entran en esta categoría. En estos casos, las herramientas de IA deberán ser autorizadas por un organismo judicial o independiente antes de salir al mercado.

Riesgo limitado se refiere al riesgo que implica el no divulgar el uso de una IA. Por ejemplo, la ley especifica que las empresas que utilizan chatbots deben dejar claro que las personas están interactuando con una IA, para que puedan tomar una decisión informada sobre si continuar o no. Esto también se aplica al contenido generado por IA, incluidas imágenes, particularmente cuando se publican con el propósito de informar al público y, por lo tanto, podría influir en la toma de decisiones del usuario.

Riesgo mínimo o nulo incluye el uso de IA en videojuegos y filtros de spam. Según el documento, la gran mayoría de los sistemas de IA utilizados en la UE entran en esta categoría. Estos se pueden utilizar libremente sin necesidad de obtener autorización o revelar el uso de la IA, pero abre la posibilidad a que las empresas adopten si lo desean códigos de conducta voluntarios para aumentar la confianza de sus clientes.

 

¿Quién es responsable del cumplimiento?

Si bien la legislación ha sido diseñada para proteger a los ciudadanos de la UE, tendrá impacto importante en las empresas tecnológicas a nivel mundial, particularmente en EEUU donde se desarrolla la mayoría de los sistemas de IA. Meta y Apple ya han retrasado lanzamientos de nuevos productos en la UE citando la “naturaleza impredecible del entorno regulatorio europeo”.

 La ley está diseñada principalmente para legislar sobre la IA que entra en la categoría de alto riesgo y las empresas de tecnología que proporcionan el software, en vez de aquellas que lo implementan. “Es importante tener en cuenta que las obligaciones de la Ley se aplican (principalmente) a los proveedores de IA”, explicó Thomas Regnier, portavoz de la Comisión Europea a The Drum.

“Queremos que las empresas de marketing y todos los demás ciudadanos puedan aprovechar todos los beneficios potenciales de la IA, pero al final la obligación de cumplir la legislación no es para quienes la utilizan sino para quienes la ponen en el mercado. Sin embargo, eso no significa que las empresas que implementan el software puedan ignorar la legislación”. De hecho, según la firma de abogados Lexr, los implementadores deben garantizar que los sistemas de IA se utilicen de acuerdo con los estándares de la Ley sobre transparencia para los usuarios y proporcionar información clara sobre las capacidades de la IA y la lógica de toma de decisiones.

Además, el artículo 50 de la Ley establece que quienes implementen sistemas de IA generativa para crear contenido deben revelar que el texto ha sido generado o manipulado artificialmente, a menos que el contenido “haya sido objeto de un proceso de revisión humana o control editorial y cuando una persona física o jurídica tiene la responsabilidad editorial de la publicación del contenido”.

 

¿Cómo afectará la Ley a la CX?

Tal vez el impacto más significativo será para las empresas que utilicen chatbots impulsados por IA. Según la ley, deberán revelar claramente a los usuarios que están interactuando con una máquina y solicitar permiso al usuario antes de que se lleve a cabo la conversación para que puedan tomar una decisión informada sobre si continuar o no.

Como las organizaciones no necesitan revelar que el contenido ha sido generado por una IA siempre que haya pasado por un proceso de revisión humana o supervisión editorial, será necesario implementar capacitación y procesos para la supervisión humana.

Si bien no se menciona explícitamente a las empresas que implementan procesos como el mapeo del recorrido del cliente y la recopilación de datos, la Ley no reemplaza las regulaciones de protección de datos como el GDPR (reglamento general de protección de datos de la UE), por lo que las empresas deben asegurarse de que las herramientas de IA que utilicen no violan estas leyes.

 

¿Qué deben hacer las empresas para cumplir con la Ley?

La UE está dando a las empresas de tecnología hasta seis meses para cumplir con las nuevas reglas, a riesgo de enfrentar grandes multas que parten desde los us$8 millones o el 1% de su facturación global anual, hasta us$38 millones o el 7% de su facturación anual.

Toda organización que adopte la IA debe implementar una estrategia de gobernanza alineada con los objetivos comerciales que tenga en cuenta la seguridad de los datos, la mejora de las habilidades y la capacitación, el monitoreo y  la transparencia continuos, al mismo tiempo que incluya auditorías periódicas de los sistemas de IA.

Garantizar que el personal esté plenamente actualizado con los sistemas de IA es particularmente importante, ya que el artículo 4 de la Ley señala que: “los proveedores y los implementadores de sistemas de IA tomarán medidas para garantizar, en la mayor medida posible, un nivel suficiente de alfabetización en IA de sus empleados, teniendo en cuenta sus conocimientos técnicos, experiencia, educación y capacitación y el contexto en el que se utilizarán los sistemas de IA”.

La Ley también incluye una disposición para que la Oficina de IA, establecida como el centro de experiencia y gobernanza de la IA de la UE y los estados miembros, faciliten la elaboración de códigos de conducta voluntarios en materia de directrices éticas, alfabetización en IA, diseño inclusivo y evaluación y prevención del impacto negativo de los sistemas de IA en grupos vulnerables de personas.

La Ley de IA de la UE marca un paso fundamental en la regulación de las tecnologías de IA, sentando un precedente global sobre cómo se puede desarrollar e implementar la IA de manera responsable. Aprobar una legislación similar en EEUU ha sido complicado dadas las diversas jurisdicciones del país y la influencia que tiene la industria tecnológica sobre las discusiones regulatorias; sin embargo, aún está por verse qué efecto en cadena tendrán las regulaciones de la UE en el sector tecnológico estadounidense y a nivel global.

Traducido de un texto publicado por Leila Hawkins, en cxnetwork.com.