Desde hace un par de años la Unión Europea preparaba una propuesta para regular la inteligencia artificial, una tecnología que está en el centro del debate público y que suscita admiración, interés y también temores. Este lento proceso legislativo de repente se aceleró en 2023 tras la irrupción del modelo de IA generativa de ChatGPT, y que, en muy poco tiempo, ha dado la posibilidad a millones de personas en todo el mundo de conocer el alcance de una tecnología que está llamada a revolucionar el mundo.
Finalmente, el 1 de agosto de 2024 entró en vigor la Ley Europea de Inteligencia Artificial, el primer reglamento global sobre inteligencia artificial del mundo. La Ley de IA está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea fiable y que proteja los derechos fundamentales de las personas. El texto legal busca regular su uso bajo un marco jurídico uniforme, facilitando con ello la comercialización y circulación de los productos y sistemas basados en IA, sin olvidar la ciberseguridad y el desarrollo tecnológico bajo un enfoque ético.
No obstante, a pesar de estas aprobaciones, la normativa no será de aplicación obligatoria en su mayor parte hasta agosto de 2026. Será en ese momento cuando casi todos sus puntos tendrán plena aplicación. Es decir, que hasta ese 2026 la Ley de inteligencia artificial europea no tendrá plenos efectos jurídicos para los ciudadanos y empresas de la UE.
Índice de temas
Los puntos más destacados de la nueva Ley de Inteligencia Artificial de Europa
La IA será clasificada por su nivel de peligrosidad
En la Ley de inteligencia artificial de la Unión Europea, la IA en general, y la generativa también, la de chats como ChatGPT, será finalmente clasificada por su nivel de peligrosidad. En este sentido, habrá cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. Asimismo, la IA deberá respetar los derechos de autor. Y, para ello, la ley obligará a las máquinas y a aquellos que las usan a cumplir con la legislación vigente de copyright en la UE.
Limitación del uso de la IA para labores de vigilancia
Por otra parte, la Ley de Inteligencia Artificial de Europa contempla la limitación extrema de lA en labores de vigilancia. Con el objetivo de proteger los derechos de privacidad de los ciudadanos se limitará el uso de sistemas de identificación biométrica en espacios públicos por parte de las autoridades policiales. Solo se permitirá este tipo de uso ante causas de fuerza mayor, como amenazas terroristas o identificación de víctimas, por ejemplo. Y siempre bajo unas condiciones muy concretas.
Defensa de los derechos de los usuarios de IA
La nueva Ley de Inteligencia Artificial garantiza los derechos a los usuarios, al instar a incluir información sobre el uso de IA. Pero también porque se establecen los mecanismos necesarios para presentar quejas y solicitar compensación. Uno de los objetivos principales es, de esta forma, asegurar la protección y la seguridad de los ciudadanos.
Mecanismos de supervisión y cumplimiento
La ley también crea mecanismos para su supervisión y cumplimiento. Esto incluye la creación de una junta de supervisión de IA, y sistemas de supervisión a nivel nacional y europeo. En España, por ejemplo, se ha presentado ya la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que tiene su sede en A Coruña.
Modelos transparentes y explicables
Uno de los principios que establece la nueva Ley de Inteligencia Artificial impulsada por el Parlamento Europeo es que requiere que los sistemas de IA sean transparentes y explicables. Esto debe permitir a los usuarios cómo y por qué se toman decisiones automatizadas. Así pues, se deben publicar resúmenes detallados del contenido que se usa para entrenar a los modelos de IA.
Defensa de los derechos de autor
En cuanto a los derechos de propiedad intelectual, el Reglamento exige transparencia en los modelos de IA y la publicación de resúmenes detallados de los materiales utilizados para su formación.
Multas para los que no cumplan
Por último, la nueva Ley de Inteligencia Artificial de Europa establece multas que oscilan los 7,5 millones de euros o el 1,5% de la facturación anual de una compañía. Aunque en los casos más graves podrán llegar a los 35 millones de euros y el 7% del volumen de negocio anual.
Los cuatro niveles de riesgo de la inteligencia artificial
Riesgo mínimo
La mayoría de los sistemas de IA, como los sistemas de recomendación basados en IA y los filtros de correo no deseado, entran en esta categoría. Estos sistemas no se enfrentan a obligaciones en virtud de la Ley de IA debido a su riesgo mínimo para los derechos y la seguridad de los ciudadanos. Las empresas pueden adoptar voluntariamente códigos de conducta adicionales.
Riesgo específico de transparencia
Los sistemas de IA, como los chatbots, deben revelar claramente a los usuarios que están interactuando con una máquina. Determinados contenidos generados por IA, incluidas las ultrafalsificaciones, deben etiquetarse como tales, y los usuarios deben ser informados cuando se utilicen sistemas de categorización biométrica o reconocimiento de emociones. Además, los proveedores tendrán que diseñar sistemas de manera que los contenidos sintéticos de audio, vídeo, texto e imágenes estén marcados en un formato legible por máquina y detectables como generados o manipulados artificialmente.
Riesgo alto
Los sistemas de IA considerados de alto riesgo estarán obligados a cumplir requisitos estrictos, incluidos los sistemas de reducción del riesgo, la alta calidad de los conjuntos de datos, el registro de la actividad, la documentación detallada, una información clara para el usuario, la supervisión humana y un alto nivel de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de IA conformes. Estos sistemas de IA de alto riesgo incluyen, por ejemplo, los sistemas de IA utilizados para la contratación o para evaluar si alguien tiene derecho a obtener un préstamo o a gestionar robots autónomos.
Riesgo inaceptable
Se prohibirán los sistemas de IA que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto incluye los sistemas o aplicaciones de IA que manipulan el comportamiento humano para eludir la libre voluntad de los usuarios, como los juguetes que utilizan asistencia vocal que fomentan el comportamiento peligroso de los menores, los sistemas que permiten la “puntuación social” por parte de Gobiernos o empresas, y determinadas aplicaciones de la actuación policial predictiva. Además, se prohibirán algunos usos de sistemas biométricos, por ejemplo, los sistemas de reconocimiento de emociones utilizados en el lugar de trabajo y algunos sistemas para categorizar a las personas o la identificación biométrica remota en tiempo real con fines policiales en espacios de acceso público (con limitadas excepciones).
¿Qué empresas están afectadas por la Ley de Inteligencia Artificial de Europa?
El reglamento de Inteligencia Artificial afecta a una amplia gama de actores dentro del ecosistema de la IA. Entre estos actores están, en primer lugar, los propios proveedores y comercializadores de sistemas de inteligencia artificial dentro del territorio europeo. Independientemente de si su sede está en la propia Europa o fuera de ella. También tendrán que cumplir con la norma las entidades que utilicen esos sistemas de IA. Y aquí se incluyen tanto empresas privadas como organismos públicos. Asimismo, están obligadas a responder las empresas que distribuyan o importen esos sistemas en la UE. Por último, también estarán afectadas por esta legislación las empresas que integren, aunque sea parcialmente, sistemas de IA en sus productos.
¿Cómo afectará la Ley de Inteligencia Artificial de Europa a la operativa de las compañías?
En el plano fiscal
El reglamento establece un marco regulador que puede influir significativamente en las obligaciones fiscales de las empresas, tanto desarrolladoras de IA, como las que la usen. Con probabilidad, en el futuro, las empresas se enfrentarán a nuevas tasas o impuestos diseñados para garantizar que las tecnologías de IA contribuyan adecuadamente a las economías de donde operan.
En el plano laboral
Es previsible que las empresas realicen inversiones en formación y reciclaje profesional de los empleados. Todo para adaptarse a los cambios tecnológicos y para garantizar el uso seguro y ético de la IA en sus organizaciones.
En el plano legal
Es en este plano donde habrá más novedades. Las empresas tendrán que cumplir con una serie de requisitos legales para evitar sanciones. Especialmente, en lo que respecta a la privacidad y gestión de datos con los que entrenan esta tecnología. En este sentido, deberán implementar medidas estrictas para cumplir el Reglamento General de Protección de Datos (GDPR) y las disposiciones específicas de la nueva ley de IA. También asegurar que los sistemas de IA sean transparentes y explicables. Y que permitan a los usuarios entender cómo se toman las decisiones automatizadas. Igualmente, las empresas deberán establecer un marco de gobernanza que supervise el desarrollo e implementación de la IA, asegurando el cumplimiento ético y legal.
NOTA: Esta información esta actualizada al día 11 de diciembre de 2024.