24 de diciembre de 2024 | 5:33

Actualidad

ChatGPT enfrenta problemas de legalidad en Europa

Mairenis Gómez

7 de abril de 2023 | 6:05 am

ChatGPT, el modelo de lenguaje desarrollado por OpenAI, se encuentra en el centro de un problema de privacidad en Europa. La Agencia de Protección de Datos italiana ha emitido una decisión de emergencia temporal que exige a OpenAI dejar de utilizar la información personal de millones de ciudadanos italianos incluida en los datos de entrenamiento de ChatGPT. Esta situación podría sentar un precedente en toda Europa y poner en jaque el uso de la información personal en modelos de inteligencia artificial.

Acción regulatoria en Italia

El 31 de marzo, el regulador de datos de Italia, Garante per la Protezione dei Dati Personali, emitió una decisión de emergencia que demanda a OpenAI cesar el uso de la información personal de millones de italianos en ChatGPT. Según el regulador, OpenAI no tiene el derecho legal de utilizar dicha información en su chatbot.

En respuesta a esta situación, OpenAI ha bloqueado el acceso a ChatGPT en Italia mientras proporciona respuestas a los funcionarios que están investigando el caso. Esta acción es la primera tomada contra ChatGPT por un regulador occidental y pone de manifiesto las tensiones en torno a la privacidad en la creación de modelos de inteligencia artificial generativos, que a menudo se entrenan con grandes cantidades de datos de Internet.

Potencial impacto en Europa

La decisión tomada en Italia podría tener repercusiones en toda Europa. Desde el anuncio de la investigación, los reguladores de datos de Francia, Alemania e Irlanda se han puesto en contacto con el Garante italiano para obtener más información sobre sus hallazgos. Tobias Judin, jefe de la Autoridad de Protección de Datos de Noruega, sostiene que si un modelo se construye con datos que podrían haber sido recolectados ilegalmente, esto plantea preguntas sobre si alguien puede utilizar legalmente las herramientas basadas en esos datos.

Aumento del escrutinio sobre los modelos de IA

El golpe a OpenAI en Italia se produce en un momento en que el escrutinio de los modelos de inteligencia artificial está en aumento. El 29 de marzo, líderes tecnológicos pidieron una pausa en el desarrollo de sistemas como ChatGPT, preocupados por sus posibles implicaciones futuras. Judin afirma que la decisión italiana pone de relieve preocupaciones más inmediatas y que el desarrollo de la inteligencia artificial podría tener una deficiencia importante en relación con la privacidad y protección de datos.

Los problemas de ChatGPT según el GDPR

El Reglamento General de Protección de Datos (GDPR) de Europa protege la información personal de más de 400 millones de personas en el continente. La autoridad italiana sostiene que ChatGPT tiene cuatro problemas bajo el GDPR: OpenAI no tiene controles de edad para evitar que menores de 13 años utilicen el sistema de generación de texto; puede proporcionar información sobre personas que no es precisa; y las personas no han sido informadas de que sus datos fueron recolectados. Además, se afirma que no hay «base legal» para la recopilación de información personal en los grandes volúmenes de datos utilizados para entrenar ChatGPT.

Más noticias