El mundo está contagiándose de la fiebre ChatGPT. Conversamos con este chatbot para que resuelva nuestras dudas y para que nos ayude a trabajar mejor, pero mientras lo hacemos, le estamos contando un montón de cosas a este motor de inteligencia artificial conversacional. Eso no es problema si uno habla de temas más o menos banales, pero la cosa cambia, y mucho, en empresas.
Top secret. Como indican en Dark Reading, un informe reciente de la consultora de seguridad de datos Cyberhaven reveló que se detectaron y bloquearon peticiones de introducción de datos en el 4,2% de los 1,6 millones de trabajadores de empresas que trbaajan con ellos. Es un porcentaje que parece bajo pero que es realmente preocupante porque en todos los casos el peligro estaba en que esos trabajadores acabaran filtrando datos sensibles.
¿Qué datos sensibles se pueden filtrar? De todo tipo. Desde información confidencial sobre la empresa hasta datos de clientes o código fuente de sus aplicaciones. En uno de los casos, un directivo copió y pegó el documento de la estrategia de 2023 de la empresa en ChatGPT y le pidió que creara una presentación en PowerPoint. En otro, un doctor introdujo el nombre de un paciente y su estado de salud, y le pidió a ChatGPT que escribiera el borrador de una carta a la compañía de seguros del paciente.
Contándole todo a ChatGPT. Para estos expertos, el peligro es real e irá en aumento. "Hubo una gran migración de datos de la nube a la nube, y el próximo gran cambio va a ser la migración de datos a estas aplicaciones generativas", explicaba Howard Ting, CEO de Cyberhaven.
Las empresa empiezan a reaccionar. Algunas compañías han reconocido ya el problema y están comenzando a tomar medidas. JPMorgan ha restringido el uso de ChatGPT, y otras como Amazon, Microsoft —qué ironía— y Wal-Mart han publicado avisos para sus empleados: tened cuidado cómo usáis los servicios de IA generativa.
ChatGPT no sabe guardar secretos. El problema es que si alguien da datos confidenciales ChatGPT, el motor no sabe que lo son. Los expertos en ciberseguridad avisan de un nuevo tipo de ataques llamados "de extracción de datos de entrenamiento" o de "exfiltración mediante inferencia de aprendizaje automático" que básicamente logran sacarle información confidencial a ChatGPT.
Y esto va a más. La presentación ayer de Microsoft 365 Copilot no hará más que impulsar el uso de estos sistemas con datos empresariales, y aunque en Redmond aseguraron que en esos entornos la privacidad y la protección de los datos confidenciales está garantizada, más y más trabajadores acabarán usando estos y otros sistemas para ayudarles en su trabajo. Eso, lo quieran o no las empresas, puede representar una amenaza potencial. Una que tendrán que tratar de evitar a toda costa.
Imagen: Ryoji Iwata
Ver 22 comentarios
22 comentarios
Djinn Hache
El artículo habla de algo que no ha sucedido. Hay que leerlo hasta el final para leer "puede representar una amenaza potencial" pero no hay indicios ni pruebas de que este pasando o haya pasado.
Además, los enlaces "nuevo tipo de ataques" y "sacarle información confidencial" que pretender hacer creer que ha sucedido, no tienen nada que ver con el contexto.
El primero habla de que las plataformas de IA sufrirán más ataques, pero no que se saque información personal de ellos.
El segundo literalmente habla de que las IA recopilan información PÚBLICA de todo el mundo, en ningún caso habla de información confidencial.
Pero bueno, lo único importante es que el clickbait del título ha cumplido su objetivo y tenéis a los trolls de siempre comentando sin leer y generando clics.
Ariasdelhoyo
Pues lo que yo estoy viendo es que chatGPT es una mierda como el sombrero de un picador en cuanto buscar información medianamente veraz.
Le hago preguntas de temas de los que tengo cierto conocimiento y encuentro que responde con total naturalidad MINTIENDO COMO UN BELLACO. Eso sí, muy bien hilvanado.
Le he preguntado por una poesía en concreto de un determinado autor, y se la ha inventado. Le pregunté por el comienzo de una novela y se lo inventó.
Le he pillado en montones de mentiras gordas.
Claro, la explicación es que las fuentes estarán mal, pero si le pregunto por algo tan específico como una determinada poesía de un autor, hay poco donde rascar, o la conoce o no la conoce. Pues nada, te larga una poesía que no tiene nada que ver y se queda tan ancho.
Por lo tanto, si esto lo hace con cosas que conozco, no le puedo preguntar por cosas que no conozco, porque tendré que contrastar punto por punto lo que me diga. Y para eso, busco en Google, en páginas de cierta confianza y me ahorro el trabajo.
perdidos
No tiene nada de sorprendente delegar tareas banales con datos altamente confidenciales, porque lo haces de forma automática, sin pensar en lo que estás haciendo.
TOVI
La agencia de protección de datos frotándose las manos.
smithwinston
😱😱😱😱😱😱😱
Samuel Gómez Arnaiz
Bueno... si todo esto es cierto... el problema no es GPT... el problema es OpenAI y Microsoft.
shacktar
No solo esas empresas han tomado medidas. Todas las multinacionales o empresas de gran tamaño que quieran cuidar de su información habrán tomado esas medidas de avisar a sus usuarios.
Es que es de cajón.
albertogargiullo
Dale a un humano promedio la herramienta más beneficiosa para la Humanidad y no tardará en convertirla en la peor amenaza.
ultraverse
"En uno de los casos, un directivo copió y pegó el documento de la estrategia de 2023 de la empresa en ChatGPT y le pidió que creara una presentación en PowerPoint."
¿Y esta gracia también la colocará como "soft skill" en su página de LinkedIn o aún no?