ChatGPT se inventa datos y eso es ilegal en Europa. Así que una organización se ha propuesto arreglarlo con una demanda

  • NOYB demanda a OpenAI por no cumplir el Reglamento General de Protección de Datos

  • Tras sus logros con Google, Meta y Apple, la asociación busca ahora que se multe a los creadores de ChatGPT

  • Desde Europa se investiga el caso, pero no se ha tomado ninguna decisión

Enrique Pérez

Editor Senior - Tech

Editor especializado en tecnología de consumo y sociedad de la información. Estudié física, pero desde hace más de diez años me dedico a escribir sobre tecnología, imagen y sonido, economía digital, legislación y protección de datos. Interesado en aquellos proyectos que buscan mejorar la sociedad y democratizar el acceso a la tecnología. LinkedIn

OpenAI tiene varios frentes abiertos en Europa. Una de las agencias de protección de datos que más ha presionado a la empresa detrás de ChatGPT es la italiana, pero tras prohibirlo temporalmente en 2023, la agencia permitió que el chatbot siguiera su actividad después de realizar algunos cambios para adaptarse al Reglamento General de Protección de Datos (RGPD). Unos cambios en la buena dirección, pero todavía insuficientes, según todo lo expuesto por distintos expertos en protección de datos.

ChatGPT se inventa datos. Y eso es ilegal. La principal crítica que se hace a ChatGPT es que es una plataforma que da datos incorrectos sobre personas concretas. Se trata de una desinformación prohibida por el artículo 5 del RGPD.

El propio Reglamento obliga a que los usuarios puedan exigir una rectificación de los datos y la compañía debe ser capaz de mostrar qué fuentes y datos dispone de cada individuo. Una transparencia que OpenAI no ofrece a los usuarios europeos. Según datos del New York Times, ChatGPT tiene una tasa de invención del 3% al 27%.

NOYB demanda a OpenAI. La organización en defensa de los derechos digitales, NOYB, creada por el activista Max Schrems, ha presentado una demanda contra OpenAI ante la agencia austriaca de protección de datos.

Se trata de una organización muy conocida en el ámbito de la protección de datos, pues fueron ellos quienes propiciaron los cambios en el Privacy Shield, el tratado de datos transoceánicos entre Estados Unidos y Europa, así como casos contra Facebook, Google y Apple.

Activan un proceso para que Europa multe a OpenAI. Bajo la Ley de Servicios Digitales, Europa puede multar a OpenAI con hasta el 4% de su facturación anual global en caso de no cumplir con las exigencias de la normativa. Esta multa económica será una de las medidas que busca conseguir NOYB, que explica que ha contactado directamente con las autoridades correspondientes para poner en marcha esta sanción.

Ni OpenAI es capaz de controlar lo que ha creado. Ante las peticiones de NOYB, desde OpenAI argumentan que no pueden cambiar los datos que los usuarios solicitan rectificar. La IA puede establecer filtros o bloquear determinados prompts, pero no pueden cambiar la base del modelo.

Todos miran, pero no se ha tomado ninguna decisión. La respuesta de las autoridades de protección de datos respecto a ChatGPT ni está ni parece que vaya a llegar pronto. La demanda de NOYB es la respuesta ante esta paralización. Un intento, por parte de unos abogados que hasta la fecha han conseguido avanzar en muchos casos, de que Europa obligue a OpenAI a adaptarse o exponerse a ser multada.

En abril de 2023, tanto España como el European Data Protection Board (EDPB) crearon un grupo de trabajo para investigar a ChatGPT. Ha pasado ya un año desde aquello y no hemos conocido avances. Mientras tanto, el uso de ChatGPT en Europa se ha extendido ampliamente.

En Xataka | Las redes sociales nos dejaron trabajar gratis para ellas. Ahora nos quieren cobrar por hacerlo

Ver todos los comentarios en https://www.xataka.com

VER 19 Comentarios

Portada de Xataka