La Unión Europea alcanzó un acuerdo provisional sobre su tan esperada Ley de Inteligencia Artificial el pasado 8 de diciembre, convirtiéndose en la primera potencia global en aprobar reglas que rigen el uso de la IA.
La legislación describe medidas a nivel de la UE diseñadas para garantizar que la IA se utilice de forma segura y ética, e incluye limitaciones en el uso de reconocimiento facial en vivo y nuevos requisitos de transparencia para los desarrolladores de modelos básicos de IA como ChatGPT.
La Ley de IA es un conjunto de legislación a nivel de la UE que busca establecer salvaguardias sobre el uso de la inteligencia artificial en Europa, al mismo tiempo que garantiza que las empresas europeas puedan beneficiarse de la tecnología en rápida evolución. La legislación establece un enfoque de regulación basado en el riesgo que clasifica los sistemas de inteligencia artificial en función de su nivel percibido de riesgo e impacto en los ciudadanos.
Prohibiciones según la Ley de IA:
Sistemas de categorización biométrica que utilizan características sensibles (creencias políticas, religiosas, filosóficas, orientación sexual, raza).
Extracción no dirigida de imágenes faciales de Internet o imágenes de CCTV para crear bases de datos de reconocimiento facial.
Reconocimiento de emociones en el ámbito laboral y en las instituciones educativas.
Puntuación social basada en el comportamiento social o características personales.
Sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío.
La IA solía explotar las vulnerabilidades de las personas debido a su edad, discapacidad, situación social o económica.
Lo más significativo es el hecho de que la Ley de IA no entrará en vigor hasta 2025, lo que dejará un vacío regulatorio en el que las empresas podrán desarrollar y desplegar IA sin restricciones y sin riesgo de sanciones. Hasta entonces, se espera que las empresas cumplan la legislación de forma voluntaria, dejándolas esencialmente libres para autogobernarse.
Los desarrolladores de sistemas de IA considerados de alto riesgo tendrán que cumplir ciertas obligaciones establecidas por los legisladores europeos, incluida la evaluación obligatoria de cómo sus sistemas de IA podrían afectar los derechos fundamentales de los ciudadanos. Esto se aplica a los sectores bancario y de seguros, así como a cualquier sistema de inteligencia artificial con “daño potencial significativo a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho”.
Los modelos de IA que se consideran de alto impacto y plantean un riesgo sistémico (lo que significa que podrían causar problemas generalizados si algo sale mal) deben seguir reglas más estrictas. Los desarrolladores de estos sistemas deberán realizar evaluaciones de sus modelos, así como “evaluar y mitigar los riesgos sistémicos, realizar pruebas adversas, informar a la Comisión (Europea) sobre incidentes graves, garantizar la ciberseguridad e informar sobre su eficiencia energética”. Además, los ciudadanos europeos tendrán derecho a presentar quejas y recibir explicaciones sobre las decisiones tomadas por sistemas de inteligencia artificial de alto riesgo que afecten sus derechos.
Para ayudar a las nuevas empresas europeas a crear sus propios modelos de IA, la Ley de IA también promueve entornos limitados de pruebas regulatorios y pruebas en el mundo real. Estos serán establecidos por las autoridades nacionales para permitir a las empresas desarrollar y entrenar sus tecnologías de IA antes de que sean introducidas en el mercado «sin presiones indebidas por parte de los gigantes de la industria que controlan la cadena de valor».
Los proveedores de sistemas de IA de uso general deben cumplir ciertos requisitos de transparencia según la Ley de IA; esto incluye la creación de documentación técnica, el cumplimiento de las leyes europeas de derechos de autor y el suministro de información detallada sobre los datos utilizados para entrenar los modelos básicos de IA. La regla se aplica a los modelos utilizados para sistemas de IA generativa como ChatGPT de OpenAI.
Las empresas que no cumplan con la legislación se enfrentan a multas que van desde 35 millones de euros (38 millones de dólares) o el 7% de la facturación global hasta 7,5 millones de euros (8,1 millones de dólares) o el 1,5% de la facturación, dependiendo de la infracción y el tamaño de la empresa.
La UE espera que su reglamento de IA siente un precedente a seguir por otros países. En una publicación en X (anteriormente Twitter), El comisario europeo Thierry Breton calificó la Ley de IA como “una plataforma de lanzamiento para que las empresas emergentes y los investigadores de la UE lideren la carrera mundial de la IA”. mientras que Dragos Tudorache, eurodiputado y miembro del Grupo Renew Europe, dijo que la legislación fortalecería la capacidad de Europa para «innovar y liderar en el campo de la IA», al tiempo que protegiendo a los ciudadanos.