Este sitio web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuaria/o posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestro web o ayudar a nuestro equipo a comprender qué secciones de este sitio web encuentras más interesantes y útiles.
Cinco claves de la nueva ley de inteligencia artificial europea
No ha sido fácil consensuar la nueva ley, pero finalmente salió ‘fumata blanca’ en Bruselas. Tras varios días de intensas negociaciones, las instituciones europeas alcanzaban un acuerdo provisional sobre la regulación de la inteligencia artificial, que aún tendrán que ratificar el Parlamento Europeo y los Estados miembros.
El proyecto de reglamento tiene como objetivo garantizar que los sistemas de IA comercializados y utilizados en la UE sean seguros y respeten los derechos fundamentales, al tiempo que impulsan la innovación para convertir a Europa en líder en este campo frente a China y EE. UU.
“La ley de inteligencia artificial de la UE es pionera en el mundo. Un marco legal único para el desarrollo de esta tecnología en el que se puede confiar”, señaló la presidenta de la Comisión Europea, Ursula von der Leyen.
Estas son algunas claves de lo acordado:
A mayor riesgo, más restricciones
Las reglas permiten o prohíben el uso de la IA en función de sus riesgos potenciales y su nivel de impacto, es decir, según su capacidad de causar daño a la sociedad: cuanto mayor en el riesgo, más estrictas son las reglas.
Así, los sistemas de inteligencia artificial que presenten solo un riesgo limitado estarán sujetos a obligaciones de transparencia muy leves, por ejemplo, revelar que el contendido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior. Por el contrario, se identifican sistemas de algo riesgo que solo podrán utilizarse se demuestra que respetan los derechos fundamentales, como los utilizados para influir sobre los votantes en las elecciones.
Permitida la vigilancia biométrica solo en algunos casos
Uno de los puntos más sensibles de las negociaciones ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de reconocimiento facial en espacios públicos para garantizar la seguridad nacional. El acuerdo provisional incluye salvaguardias y excepciones para el uso de estos sistemas de identificación biométrica (RBI) sujetos a autorización judicial previa y para listas de delitos estrictamente definidas.
La vigilancia ‘post remota’ se utilizaría estrictamente en la búsqueda selectiva de una persona condenada o sospechosa de haber cometido un delito grave. La vigilancia ‘en tiempo real’ cumpliría con condiciones estrictas y su uso estaría limitado en tiempo y ubicación para los fines de: búsquedas selectivas de víctimas de secuestro, trata o explotación sexual; prevención de una amenaza terrorista específica y presente, o la localización o identificación de una persona sospechosa de haber cometido uno de los delitos específicos mencionados en el reglamento (terrorismo, trata, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en una organización criminal o delitos medioambientales).
Quedan totalmente prohibidos
Para algunos usos de la IA, el riesgo se considera inaceptable por su amenaza potencial para los derechos de los ciudadanos y la democracia, y se ha acordado prohibir:
- sistemas de categorización biométrica que utilizan datos sensibles, por ejemplo, creencias políticas, religiosas, filosóficas, orientación sexual o raza
- extracción no dirigida de imágenes faciales de Internet o grabaciones audiovisuales para crear bases de datos de reconocimiento facial
- reconocimiento de emociones en el lugar de trabajo y en instituciones educativas
- puntuación social basada en comportamiento social o características personales
- sistemas de IA que manipulan el comportamiento humano
La IA generativa: sí, pero con vigilancia
Los sistemas de inteligencia artificial generativa, como ChatGPT, tendrán que cumplir criterios adicionales de transparencia, como especificar si un texto, una canción o fotografía se han generado por IA para ayudar, entre otras cosas, a distinguir las falsificaciones de las auténticas, y estar diseñados de forma que no puedan generar contenido ilegal. Además, deberán publicarse resúmenes detallados de los datos protegidos por derechos de autor que han sido utilizados para su desarrollo para garantizar que se respetan esos derechos.
Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso el reglamento en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.
Sanciones y multas
El incumplimiento de las normas puede dar lugar a multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, dependiendo de la infracción y el tamaño de la empresa.
El texto acordado ahora tendrá que ser adoptado formalmente tanto por el Parlamento Europeo como por el Consejo de la UE para convertirse en ley y entrar en vigor (previsiblemente, a finales de 2026). Las comisiones de Mercado Interior y Libertades civiles del Parlamento votarán sobre el acuerdo en una próxima reunión.