T: +34 955 26 89 56 | protecciondedatos@talentoprotec.com

Italia prohíbe el uso de ChatGPT por la forma de gestionar la privacidad

OpenAI deberá informar en los próximos 20 días de las medidas que está tomando para asegurar la privacidad de los usuarios o se enfrenta a una multa de hasta 20 millones de euros o un 4% de sus ingresos globales anuales.

La Autoridad Italiana de Protección de Datos ha prohibido de forma temporal ChatGPT, el chatbot de OpenAI, por incumpliento del Reglamento General de Protección de Datos (RGPD) en la forma en la que gestiona los datos personales de los usuarios italianos. 

Según declaró la institución en un comunicado, se va a limitar de forma temporal el uso de ChatGPT entre los usuarios italianos hasta que la herramienta “respete la privacidad”. OpenAI deberá informar en los próximos 20 días de las medidas que está tomando para asegurar la privacidad de los usuarios o se enfrenta a una multa de hasta 20 millones de euros o un 4% de sus ingresos globales anuales. 

En su resolución, el regulador italiano expuso las preocupaciones que existen en torno a la forma de procesar los datos personales que realiza OpenAI a través de ChatGPT. En primer lugar, la compañía no muestra a los usuarios “y a todos aquellos involucrados” a través de un aviso o notificación respecto al hecho de que sus datos están siendo recogidos por la firma estadounidense. 

“Parece que no hay una base legal que apoye la recogida masiva y el procesamiento de datos personales para entrenar los algoritmos en los que se basa la plataforma”, escribe. 

De igual modo, no existe un mecanismo que verifique la edad de los usuarios, lo que “expone a los niños a recibir respuestas que son absolutamente inapropiadas para su edad y conciencia, incluso aunque el servicio esté dirigido a usuarios mayores de 13 años, según los términos del servicio de OpenAI”. Y recordó también el procesamiento que realiza de datos personales inexactos, a tenor de las respuestas inexactas que a veces muestra la herramienta de IA generativa. 

Por último, el organismo recuerda la brecha de seguridad que sufrió el pasado 20 de marzo OpenAI, que conllevó la exposición parcial de conversaciones y detalles personales de algunos usuarios como direcciones de email y los cuatro últimos dígitos de las tarjetas bancarias. 

Desde OpenAI han asegurado que van a respetar la decisión del organismo, desactivando el chatbot en el mercado italiano, informando además que cumplía con el RGPD. “Estamos comprometidos en proteger la privacidad de las personas y creemos que cumplimos con el RGPD y otras normas de privacidad”, al limitar el uso de datos personales en sus sistemas. 

“Trabajamos de forma activa para reducir los datos personales en el entrenamiento de nuestros sistemas de IA como ChatGPT porque queremos que la IA conozca más sobre el mundo, no sobre individuos concretos”, sentenció un portavoz de la misma.

¿Quieres saber más sobre la protección de datos en tu empresa?

Desde TalentoProtec, división especializada en servicios de protección de datos para pymes y autónomos de Talento Consulting, ponemos a tu disposión nuestro servicio de asesoramiento y consultoría en lo referente a políticas de protección de datos en tu empresa y adaptación a la RGPD (Reglamento Europeo de Protección de Datos) . No dudes en consultarnos en protecciodedatos@talentoprotec.com o en el 955 268 956.

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies