Italia está bloqueando de manera temporal el software de inteligencia artificial ChatGPT a causa de una violación de datos mientras investiga una posible vulneración de las estrictas normas de protección de datos de la Unión Europea, según información del organismo de control de privacidad del gobierno.
La Autoridad de Protección de Datos de Italia dijo que estaba tomando medidas provisionales "hasta que ChatGPT respete la privacidad", incluyendo la limitación temporal de que la empresa procese los datos de los usuarios italianos.
OpenAI, con sede en Estados Unidos, que generó ChatGPT, no dio una respuesta de manera inmediata.
Algunas escuelas públicas y universidades a nivel mundial han bloqueado el sitio web ChatGPT de sus redes locales por preocupaciones de plagio estudiantil, pero no se encuentra definido cómo Italia lo bloquearía a nivel nacional.
Es poco probable que la medida traiga problemas a las aplicaciones de empresas que ya tienen licencias con OpenAI para utilizar la misma tecnología que impulsa el chatbot, como el motor de búsqueda Bing de Microsoft.
Los sistemas de inteligencia artificial que impulsan estos chatbots, conocidos como modelos de lenguaje extenso, pueden tener límites en cuanto a los estilos de escritura humanos en función de la gran cantidad de libros digitales y escritos en línea que han ingerido.
El organismo de control italiano dijo que OpenAI debe informar dentro de 20 días qué medidas ha tomado para garantizar la privacidad de los datos de los usuarios o enfrentar una multa de hasta 20 millones de euros (casi $ 22 millones) o el 4% de los ingresos globales anuales.
La declaración de la agencia cita el Reglamento General de Protección de Datos de la UE y señaló que ChatGPT sufrió una violación de datos el 20 de marzo que involucraba "conversaciones de usuarios" e información sobre pagos de suscriptores.
OpenAI dio a conocer anteriormente que tenía que desconectar ChatGPT el 20 de marzo para corregir un error que permitía a algunas personas ver los títulos o líneas de asunto del historial de chat de otros usuarios.
“Nuestra investigación también encontró que el 1.2% de los usuarios de ChatGPT Plus podrían haber revelado datos personales a otro usuario”, externó la compañía. “Creemos que la cantidad de usuarios cuyos datos se revelaron a otra persona es extremadamente baja y nos hemos puesto en contacto con aquellos que podrían verse afectados”.
El organismo de control de la privacidad de Italia lamentó la falta de una base legal para justificar la "recopilación y el procesamiento masivos de datos personales" de OpenAI que se usan para lograr entrenar los algoritmos de la plataforma y que la empresa no notifica a los usuarios cuyos datos reúne.
La agencia del mismo modo dijo que ChatGPT en ocasiones puede generar y mantener información falsa sobre individuos.
Al final, dijo que no hay un sistema para verificar la edad de los usuarios, lo que expone a los niños a respuestas “absolutamente inapropiadas para su edad y conocimiento”.
El movimiento del organismo de control se produce a medida que incrementan las preocupaciones sobre el apogeo de la inteligencia artificial. Un grupo de expertos y líderes de la industria tecnológica publicaron una carta el miércoles pidiendo a empresas como OpenAI que detuvieran el desarrollo de modelos de IA más potentes hasta el otoño para dar tiempo a la sociedad a evaluar los riesgos.
“Si bien no está claro qué tan ejecutables serán estas decisiones, el hecho mismo de que parece haber un desajuste entre la realidad tecnológica sobre el terreno y los marcos legales de Europa” muestra que puede haber algo en el llamado a una pausa de la carta “ para permitir que nuestras herramientas culturales se pongan al día”, comentó Nello Cristianini, profesor de IA en la Universidad de Bath.
El CEO de OpenAI con sede en San Francisco, Sam Altman, dio a conocer esta semana que realizará un viaje por seis continentes en mayo para hablar sobre la tecnología con usuarios y desarrolladores. Eso incluye una visita a Bruselas, donde los legisladores de la Unión Europea han estado negociando nuevas reglas radicales para establecer límites a las herramientas de inteligencia artificial de alto riesgo, así como algunas consultas en Madrid, Múnich, Londres y París.
El grupo de consumidores europeo BEUC pidió el jueves a las autoridades de la UE y a las 27 naciones miembros del bloque que investiguen ChatGPT y chatbots de IA similares. BEUC dijo que podrían pasar años antes de que la legislación de IA de la UE entre en vigor, por lo que las autoridades deben hacer algo más rápido para proteger a los consumidores de los probables riesgos.
“En solo unos meses, hemos visto una aceptación masiva de ChatGPT, y esto es solo el comienzo”, comentó la directora general adjunta, Ursula Pachl.
Esperar la Ley de IA de la UE "no es suficiente, ya que existen serias preocupaciones sobre cómo ChatGPT y chatbots similares podrían engañar y manipular a las personas".