EMOLTV

Europa aprueba inédita ley sobre inteligencia artificial: En qué consiste la normativa y qué limitaciones impondrá

Si bien aún faltan la aprobación de los países miembros de la UE, se espera que este año comiencen a regir las primeras regulaciones sobre la IA, incluyendo modelos generativos ampliamente usados como ChatGPT y Gemini.

13 de Marzo de 2024 | 14:26 | AP / Equipo Multimedia Emol

El plenario del Parlamento Europeo aprobó esta jornada a su regulación sobre el uso de la inteligencia artificial, un ambicioso cuerpo de normas que podrían comenzar a aplicarse -de forma escalonada- a partir del presente año.

Con 523 votos a favor, 46 en contra y 49 abstenciones, los legisladores europeos aprobaron la ley cinco años después de haber sido propuesta. Se espera que se transforme en un ejemplo y guía para otros gobiernos que pretendan regular esta tecnología.

Las grandes compañías tecnológicas en general han apoyado la noción de regular la IA, pero al mismo tiempo han hecho lobby para que cualquier regulación sea a su favor. Sam Altman, CEO de OpenAI, causó ruido el año pasado al decir que la compañía que desarrolló ChatGPT podría abandonar Europa si no pudiese cumplir con la nueva normativa, aunque luego se retractó diciendo que no habían planes para salir.

Esta es una mirada al primer cuerpo legal profundo con reglas para la IA.

    ¿Cómo funciona?

  • Como muchas otras leyes europeas, el proyecto se concibió inicialmente como una legislación de seguridad para el consumidor, adoptando un "enfoque basado en el riesgo" para los productos o servicios que utilizan IA.
  • Cuanto más riesgosa sea una aplicación de IA, mayor será el escrutinio al que se enfrenta.
  • Sistemas de bajo riesgo, como los de recomendación de contenido o los filtros de correo no deseado, solo enfrentarán reglas ligeras como revelar que están impulsados por IA. Se espera que la mayoría de los sistemas de IA caigan en esta categoría.
  • Usos de alto riesgo de la IA, como en dispositivos médicos o infraestructuras críticas como redes de agua o eléctricas, enfrentan requisitos más estrictos, como el uso de datos de alta calidad y proporcionar información clara a los usuarios.
  • Votación del Parlamento Europeo. | AP

  • Algunos usos de la IA están prohibidos, porque se considera que representan un riesgo inaceptable.
  • Esto incluye sistemas de puntuación social que rigen cómo se deben comportar las personas, ciertos tipos de policía predictiva y sistemas de reconocimiento de emociones en escuelas y lugares de trabajo.
  • Otros usos prohibidos incluyen el escaneo facial por parte de la policía en público utilizando sistemas de "identificación biométrica" remotos impulsados por IA, excepto para delitos graves como secuestro o terrorismo.
  • ¿Qué dispone sobre la IA generativa?

  • Los primeros borradores de la ley, hace cinco años, se centraban en los sistemas de IA que realizaban tareas limitadas, como escanear currículums y solicitudes de empleo.
  • El rápido ascenso de modelos de IA de propósito general, con ChatGPT de OpenAI como un gran ejemplo, llevó a los responsables de políticas de la UE a agregar disposiciones para los llamados modelos de IA generativos, la tecnología que sustenta los sistemas de chatbot de IA que pueden producir respuestas específicas, elaborar imágenes y más.
  • Los desarrolladores de modelos de IA de propósito general, desde startups europeas hasta OpenAI y Google, deberán proporcionar un resumen detallado del texto, imágenes, videos y otros datos en internet que se utilizan para entrenar los sistemas, así como seguir la ley de derechos de autor de la UE.
  • AP

  • Las imágenes, videos o audios deepfake generados por IA de personas, lugares o eventos existentes deben etiquetarse como manipulados artificialmente.
  • Se aplicarán criterios adicionales a los modelos de IA más grandes y poderosos que representan "riesgos sistémicos", que incluyen el GPT4 de OpenAI —su sistema más avanzado— y el Gemini de Google.
  • La UE teme que estos sistemas de IA poderosos puedan "causar accidentes graves o ser utilizados de manera incorrecta para ciberataques de gran alcance".
  • Las empresas que proporcionan estos sistemas deberán evaluar y mitigar los riesgos; informar sobre incidentes graves, como mal funcionamiento que cause la muerte o daño grave a la salud o propiedad; implementar medidas de ciberseguridad; y divulgar cuánta energía consumen sus modelos.
  • ¿Qué ocurre fuera de Europa?

  • Bruselas sugirió por primera vez regulaciones de IA en 2019, siendo pionera a nivel global en intensificar el escrutinio a esta tecnología, mientras otros gobiernos se apresuran a seguir el ritmo.
  • En Estados Unidos, el Presidente Joe Biden firmó una amplia orden ejecutiva sobre IA en octubre, la cual se espera sea respaldada por legislación y acuerdos globales. Mientras tanto, legisladores en al menos siete estados de EE.UU. están trabajando en su propia legislación sobre IA.
  • Joe Biden firmó una orden ejecutiva por la IA en octubre de 2023. | AP

  • El Presidente chino Xi Jinping ha propuesto su Iniciativa de Gobernanza Global de la IA, y las autoridades han emitido "medidas provisionales" para gestionar la IA generativa, que se aplica a texto, imágenes, audio, video y otro contenido generado para personas dentro de China.
  • Otros países, desde Brasil hasta Japón, así como agrupaciones globales como las Naciones Unidas y el Grupo de los Siete países industrializados, están avanzando en la elaboración de salvaguardas para la IA.
  • ¿Qué pasos vienen?

  • Se espera que la ley entre en vigor oficialmente en mayo o junio, después de algunos trámites finales, incluida la aprobación de los países miembros de la UE.
  • Las disposiciones comenzarán a surtir efecto en etapas, con países obligados a prohibir los sistemas de IA vetados seis meses después de que las reglas se conviertan en ley.
  • Las reglas para sistemas de IA de propósito general, como los chatbots, comenzarán a aplicarse un año después de que la ley entre en vigor.
  • Para mediados de 2026, el conjunto completo de regulaciones, incluidos los requisitos para sistemas de alto riesgo, estará en vigor.
  • EFE

  • En cuanto a la aplicación, cada país de la UE establecerá su propio organismo de control de IA, donde los ciudadanos podrán presentar una queja si creen que han sido víctimas de una violación de las reglas.
  • Mientras tanto, la UE creará una Oficina de IA encargada de hacer cumplir y supervisar la ley para sistemas de IA de propósito general.
  • Las violaciones de la ley podrían acarrear multas de hasta 35 millones de euros (38 millones de dólares), o el 7% de los ingresos globales de una empresa.
EL COMENTARISTA OPINA
¿Cómo puedo ser parte del Comentarista Opina?