Parlamento Europeo aprueba ley que regula el uso de la inteligencia artificial en la UE
Estrasburgo, Francia. El plenario del Parlamento Europeo aprobó este miércoles una ambiciosa regulación sobre el uso de la inteligencia artificial (IA) en la Unión Europea (UE), en el último paso antes de su adopción formal en todo el bloque.
En la plenaria de este miércoles, la ley obtuvo un amplio respaldo de 523 votos a favor, 46 en contra y 49 abstenciones.
El proyecto de ley original, considerado inédito a nivel mundial, había sido presentado por la Comisión Europea, el brazo ejecutivo de la Unión Europea, en abril de 2021.
Sin embargo, la aparición a finales de 2022 de ChatGPT, de la empresa californiana OpenAI, capaz de escribir disertaciones, poemas o hacer traducciones en segundos, le otorgó al proyecto una nueva dimensión.
Este sistema reveló el enorme potencial de la IA, pero también expuso sus riesgos. La difusión de fotografías o vídeos falsos puso de relieve el peligro de manipulación de la opinión pública.
“Este es un día histórico en nuestro largo camino hacia una regulación de la Inteligencia Artificial”, dijo el legislador italiano Brando Benifei, uno de los ponentes del texto, junto con el rumano Dragos Tudorache.
En su último discurso antes de la votación, Benifei dijo que se trata de la “primera regulación en el mundo que define un camino claro hacia un desarrollo de la Inteligencia Artificial centrada en los seres humanos”.
A su turno Tudorache dijo que “hemos logrado un equilibrio muy delicado entre el interés por la innovación y los intereses que deben ser protegidos”.
Por su parte, el comisario europeo de Mercado Interno, Thierry Breton, saludó que el voto de este miércoles en el Parlamento Europeo significa que la UE es un “definidor de estándares” en materia de una inteligencia artificial “confiable”.
Luego del voto de este miércoles, se espera que los 27 países del bloque respalden esta ley en abril, y que el texto sea publicado en el Diario Oficial de la UE en mayo.
El veto a la utilización de formas de IA consideradas de riesgo elevado pasará a aplicarse a finales del presente año, y las reglas para la denominada IA generativa, como ChatGPT se aplicarán 12 meses después que la norma sea ratificada.
Modelos con requisitos diferentes
La normativa adoptada prevé que los modelos de IA de “propósito general” deberán cumplir con las obligaciones de transparencia, así como con las normas europeas de derechos de autor.
En tanto, los sistemas considerados “de alto riesgo” (como los utilizados en infraestructuras críticas, educación o aplicación de la ley) estarán sujetos a requisitos más estrictos.
Estos sistemas tendrán que prever la implementación de un análisis de impacto obligatorio sobre los derechos fundamentales.
El texto respaldado por los eurodiputados también prevé prohibir la calificación ciudadana o los sistemas de vigilancia masiva, o incluso la identificación biométrica remota de personas en lugares públicos.
La legislación define medios de vigilancia y sanciones, mediante la creación de una Oficina Europea de IA.
Esa instancia podrá imponer multas que van desde 7,5 millones de euros ($8,2 millones) o el 1,5% de la facturación de las empresas afectadas, hasta 35 millones de euros ($38,3 millones) o el 7% de la facturación global, dependiendo de la infracción y el tamaño de la empresa.
Esta normativa determina en los ciudadanos deben ser claramente informados que están tratando con recursos de inteligencia artificial.
La ley también prohíbe a los agentes de policía utilizar tecnología de reconocimiento facial en tiempo real, con excepciones para las fuerzas del orden si están buscando a una persona condenada o sospechosa de un delito grave, como una violación o terrorismo.
La policía podrá solicitar el uso de la tecnología para encontrar víctimas de secuestro o trata de personas, pero con aprobación de un juez u otra autoridad judicial, y para un uso limitado en tiempo y lugar.