La seguridad es una de las grandes carencias actuales de la IA. El cliente de ChatGPT para Mac es el último ejemplo

  • La herramienta guardaba las conversaciones en texto plano, un fallo de seguridad preocupante

  • OpenAI ya ha corregido el problema, pero este es un apartado habitualmente descuidado en este segmento

Los modelos de IA generativa como ChatGPT son estupendos para muchas cosas, pero terribles para otras. Ya sabemos que cometen errores e inventan cosas, pero es que cada vez más vemos cómo quienes los implementan no tienen un importante detalle en cuenta: la seguridad.

ChatGPT para Mac, fatal. Hasta el pasado viernes, la aplicación de ChatGPT disponible para macOS —de momento no la hay en Windows— tenía un importante fallo de seguridad: guardaba todas las conversaciones en texto plano. Eso quiere decir que si alguien lograba acceso a nuestra máquina, podría también acceder a esas conversaciones y a los datos contenidos en ellas.

Cotilleo fácil. Un usuario llamado Pedro José Pereira Vieito demostraba en Threads cómo era posible desarrollar una pequeña aplicación que accediera a esos datos y mostrara las conversaciones a medida que iban sucediendo. Como él destacaba, además de guardar esas conversaciones en texto plano, la ubicación de esos textos tampoco estaba protegida.

OpenAI pasa de la seguridad. Lo curioso es que como señalaba Vieito, macOS lleva seis años ofreciendo un método sencillo de que cada aplicación mantenga los datos con los que trabaja en privado. "OpenAI eligió no activar el sandbox y almacenar las conversaciones en texto plano en una ubicación no protegida, deshabilitando todas estas defensas integradas [en macOS]".

Actualización para solucionarlo. En OpenAI han publicado una actualización que cifra los chats y que por tanto hace que dichas conversaciones ya no puedan ser "espiadas" por otros usuarios que no sean los propios usuarios de ChatGPT.

La IA necesita prestar más atención a la seguridad. Lo que ha sucedido con ChatGPT se une a otros escándalos recientes. El más grave es probablemente el que sacudió a Windows Recall, la nueva característica de Microsoft que nada más lanzarse demostró ser un desastre de seguridad y privacidad.

Cuidado con lo que le cuentas a tu chatbot. Existe un problema incluso más difícil de resolver: ChatGPT y sus rivales no saben guardar secretos. Se ha demostrado que estos modelos de IA generativa pueden servir para acabar revelando datos sensibles que de alguna forma acabaron formando parte de sus conjuntos de datos de entrenamiento. El problema ha acabado haciendo que se lancen versiones específicas como ChatGPT Enterprise, que teóricamente garantiza que las conversaciones con ese chatbot empresarial son absolutamente privadas.

En Xataka | La nueva empresa de Ilya Sutskever tiene un objetivo claro: crear una superinteligencia con seguridad "nuclear"

Ver todos los comentarios en https://www.xataka.com

VER 2 Comentarios

Portada de Xataka