La Eurocámara impone restricciones a la IA para minimizar riesgos

Adopción de la normativa de IA en la Eurocámara

El Parlamento Europeo ha dado un paso importante para avanzar en la primera normativa que regulará la inteligencia artificial (IA). Los comités de Mercado Interior y Libertades Civiles de la Eurocámara han adoptado enmiendas para imponer restricciones dirigidas a minimizar los riesgos que conllevan los modelos de lenguaje por inteligencia artificial, como ChatGPT.

Con 84 votos a favor, 7 en contra y 12 abstenciones, los eurodiputados han aprobado una modificación de la norma que establece requisitos adicionales para ChatGPT y otros modelos de lenguaje por IA. Estos sistemas tendrán que detallar si un contenido ha sido generado por inteligencia artificial y garantizar que no producirán contenido ilegal ni publicarán datos protegidos por derechos de autor.

Nuevas medidas para regular la IA en la Eurocámara

Seguridad, transparencia y respeto al medio ambiente: pilares de la normativa

Además de estos dos elementos añadidos, la norma obligará a que los sistemas sean seguros, transparentes, no discriminatorios y respetuosos con el medio ambiente. Asimismo, busca establecer una definición uniforme de IA que sea tecnológicamente neutra, para que pueda aplicarse a los sistemas actuales y futuros.

«La Ley de la Inteligencia Artificial es, probablemente, el texto legislativo más importante de este mandato. Es la primera ley de este tipo en el mundo, lo que significa que la UE puede liderar el camino para que la inteligencia artificial esté centrada en el ser humano y sea fiable y segura», ha señalado el eurodiputado de Renew, Dragos Tudorache. En las enmiendas, los eurodiputados han introducido nuevas obligaciones para los proveedores de modelos fundacionales de IA. Estos deberán garantizar la protección de derechos fundamentales, el respeto al medioambiente, a la democracia y al estado de derecho.

Prohibiciones para sistemas de IA de alto riesgo

Según esta normativa, serán prohibidos aquellos sistemas de IA que no tengan unos niveles aceptables de seguridad para las personas, así como aquellos que puedan desarrollar tácticas subliminales de manipulación, abusar de las vulnerabilidades personales o ser utilizados para clasificación social basada en comportamiento social, estatus económico o características personales.

Los eurodiputados han incluido enmiendas para vetar usos específicos de la IA, como los sistemas de identificación biométrica a distancia en tiempo real en espacios públicos, los sistemas de categorización biométrica basados en características sensibles como sexo o raza, y los sistemas policiales predictivos. También se prohibirá la extracción indiscriminada de datos biométricos de redes sociales que violen los derechos humanos y el derecho a la intimidad.

Ley Celaá