La Unión Europea ha aprobado definitivamente este martes la ley de inteligencia artificial, la cual se implementará de manera progresiva hasta el año 2026, cuando estará completamente en vigor.
“Momento histórico“, afirmó Mathieu Michel, secretario de Estado de Digitalización de Bélgica, país que actualmente ostenta la presidencia rotatoria de la Unión Europea.
Desde noviembre, estarán prohibidos los sistemas de inteligencia artificial que clasifiquen a las personas por sus creencias políticas, religiosas, filosóficas, raza u orientación sexual.
Asimismo, no se podrán utilizar sistemas que evalúen a las personas según su comportamiento o características personales, ni la inteligencia artificial destinada a manipular el comportamiento humano.
También estarán prohibidos los sistemas que expandan o creen bases de datos faciales captadas indiscriminadamente a través de internet o grabaciones audiovisuales.
No obstante, la normativa permite excepciones. Las fuerzas de seguridad podrán utilizar cámaras de identificación biométrica, siempre con autorización judicial, para prevenir una amenaza terrorista inminente.
Este fue uno de los puntos más controvertidos durante las negociaciones entre el Parlamento Europeo y los Estados miembros, que argumentaron la necesidad de permitir ciertos usos para garantizar la seguridad nacional.
Así, estos sistemas también podrán emplearse para localizar a responsables de delitos de terrorismo, tráfico de personas, explotación sexual y para buscar a las víctimas.
Dentro de un año, entrarán en vigor los criterios de transparencia para los sistemas de inteligencia artificial generativa, un punto crucial en el auge de programas como ChatGPT.
Estos modelos deberán indicar claramente si un texto, una canción o una fotografía han sido generados mediante inteligencia artificial y garantizar que los datos utilizados para entrenar los sistemas respetan los derechos de autor.
En general, el reglamento permite o prohíbe el uso de la inteligencia artificial en función del riesgo que presenta para las personas, identificando sistemas de alto riesgo que solo se podrán usar si respetan los derechos fundamentales.
Por ejemplo, los sistemas que puedan influir en el resultado de elecciones o los que utilicen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia.
Para quienes incumplan la normativa, se prevén multas que oscilan entre 35 millones de euros (37.6 millones de dólares) o el 7% del volumen global de negocio de las empresas, hasta 7.5 millones de euros (8 millones de dólares) o el 1.5% del volumen global de negocio.