El GPDP (Garante para la Protección de Datos Personales) de Italia ha prohibido con efecto inmediato el uso de ChatGPT. El regulador italiano ha ordenado este mismo viernes el bloqueo de esta herramienta de OpenAI, por supuesta recopilación ilícita de datos personales.
La autoridad nacional asegura que la empresa carece de una base jurídica que justifique "la recopilación y el almacenamiento masivos de datos personales para entrenar los algoritmos de ChatGPT.
ChatGPT, prohibido en Italia. Se limita así en el país el tratamiento de datos de usuarios italianos hacia OpenAI, a la par se abre una investigación hacia la compañía detrás del servicio. La orden es temporal, aunque no se retirará hasta que ChatGPT cumpla con el Reglamento General de Protección de Datos europeo.
Las infracciones de OpenAI, según Italia. En el comunicado oficial, el garante italiano afirma haber detectado que "no se proporciona ninguna información a los usuarios, ni a los interesados cuyos datos han sido recopilados por OpenAI, L.L.C. y procesados a través del servicio de ChatGPT". Alude, asimismo, a "la ausencia de una base jurídica adecuada en relación con la recopilación de datos personales y su tratamiento con fines de formación de los algoritmos subyacentes al funcionamiento de ChatGPT".
Disponen, del mismo modo, que el servicio no dispone de ningún sistema para verificar la edad de los usuarios, pese a estar reservado a sujetos que hayan cumplido al menos 13 años, según los términos de uso publicados por OpenAI.
Una investigación en marcha. Consideran así que ChatGPT infringe los artículos 5, 6, 8, 13 y 25 del Reglamento. Esta limitación en el servicio, con efecto inmediato a partir de la nueva disposición, queda supeditada al resultado de la investigación. En caso de incumplimiento de la medida dispuesta por el garante, el organismo apunta que se aplicarán las pertinentes sanciones penales y administrativas.
Obligan, del mismo modo, a presentar al destinatario del tratamiento (OpenAI) a comunicar en un plazo máximo de 20 días qué iniciativas se han tomado "con el fin de aplicar lo prescrito" y proporcionar "considere útil para justificar las infracciones mencionadas anteriormente". La falta de respuesta por parte de OpenAI, según el reglamento de la UE, también se castigará con sanción administrativa.
Se abre la puerta en otros países. Italia ha sido la primera en dar el paso contra OpenAI por violar el GDPR. No obstante, ejecutándose la orden en base al incumplimiento de reglamento europeo, otros países (como España) podrían seguir los mismos pasos. En Xataka nos hemos puesto en contacto con la Agencia Española de Protección de Datos (AEPD) para preguntarles sobre el asunto y explican que por el momento no han recibido ninguna reclamación sobre ChatGPT.
Sin embargo, hacen hincapié en que "la Agencia sigue de cerca estos desarrollos tecnológicos, que pueden tener una importante afectación para los derechos de las personas, por lo que no puede descartarse una futura investigación a este respecto".
Mala semana para GPT. "Pausen inmediatamente el entrenamiento", pedían tanto Musk como más personalidades tech esta misma semana. Las dudas acerca del marco legislativo, falta de protocolos que supongan garantías sobre su funcionamiento y la ausencia de regulación al respecto de la herramienta empujaban a grandes figuras del sector a pedir la paralización durante al menos seis meses de sistemas superiores a GPT-4.
Imagen | Xataka
Más información | GDPD
En Xataka | GPT-4: así es la IA más avanzada de OpenAI, cómo funciona y todas las novedades
Ver 23 comentarios
23 comentarios
kal1973
Creo que hoy se os han colado un par de articulos que no hablan de IA, deberiais revisarlo.
Usuario desactivado
Bien por Italia. Para que estas empresas necesitan datos de los usuarios? Y si los necesitan, que se hagan responsables de tratarlos según la ley. Porque estrictamente hablando, no interesa a la IA quien le pregunta algo.
quetal
Me alegro por Italia.
.
.
.
Pero porque Skynet de momento solo se vengará de ellos, no??
reyang
Me parece bien la decisión tomada por Italia, es lo que se exige, claridad , regulación y control.
Coincido también con algunos comentarios, acá en esta web le están dando demasiado importancia, varios artículos al día sobre el mismo tema, tampoco para tanto.
Yo considero que no se debe pausar su desarrollo ( el de la IA), si no regular, establecer parametros, tener mas claridad y sobre todo , enfocarse donde realmente se necesita por ejemplo, en la ciencia, tecnología y medicina,no en solo estarle haciendo preguntas a ver como responde o si se equivoca o no.
davidca3
Ya el cine de ciencia ficción nos avisaba de los peligros de inteligencia artificial. Sayonara babies 😛😛
aswered
Ya lo iba a visando desde que empezo a aparecer ChatGPT y todos aplaudiendo como monos.
lfs3360
Se hacen unas leyes a cumplir -> Sanciones si no se cumplen -> Una aplicación no cumple la ley -> Se sanciona la aplicación.
Se hacen unas leyes a cumplir -> Sanciones si no se cumplen -> Una aplicación no cumple la ley -> Se prohibe. Entonces para que legislas, que por cierto es tu trabajo.
José M
Ahí está la diferencia entre España y el resto de Europa. Mientras las Agencias de Protección de Datos de otros países toman la iniciativa, en España esperan a que haya "una denuncia" para ellos actuar.
vistorr
Que pesaditos con las IAs, yo no se que hostias le ven. Yo ni gracia le veo y funcionan como el culo todas...