ChatGPT es estupendo hasta que deja de serlo. Es lo que están comprobando gigantes de la tecnología y las finanzas como Apple, Samsung o J.P. Morgan, que en las últimas semanas han anunciado que prohibían o restringían el uso de este chatbot. Ahora son las empresas españolas las que están comenzando a seguir esa misma tendencia.
Nada de ChatGPT en Telefónica y BBVA. Como indican en El Mundo varias grandes empresas españolas están prohibiendo o limitando el uso de ChatGPT. Telefónica solo lo permite cuando la cuenta ha sido contratada y controlada por la propia empresa. BBVA prohíbe su uso en general, pero "los profesionales que crean que puede serles de utilidad" pueden pedir una autorización para usar este chatbot.
Hay datos demasiado sensibles. Redeia (Red Eléctrica) ha bloqueado también su uso, indican en el diario. La empresa alerta de posibles "riesgos vinculados a la protección de la información", algo que es especialmente delicado teniendo en cuenta que esta empresa gestiona "infraestructuras estratégicas".
La banca se protege. El caso de BBVA se extiende a otras entidades bancarias que tradicionalmente restringen el acceso "a las aplicaciones abiertas o personales" a sus empleados. El consejero delegado de CaixaBank, Gonzalo Cortázar, comentó cómo la IA "está revolucionando la manera en la que interactuamos con los clientes". La firma publicó en su blog un pequeño experimento con ChatGPT en el que destacaba que "se comporta bastante bien a la hora de aportar consejos básicos, aunque nunca podremos estar seguros de si son del todo correctos o no".
Sesgos, errores y filtraciones. Según un comunicado de una de las empresas a sus empleados —no se especifica cuál—, "Existe alta probabilidad de que la información que produzca la herramienta contenga sesgos o sea información errónea". Hay otro peligro muy real: el de la filtración de información que los empleados puedan introducir como parte de esas conversaciones. A ChatGPT no se le da bien guardar secretos.
Las empresas españolas, en alerta... El caso de Redeia y de sus intraestructuras estratégicas es similar al de Naturgy y Enagás, que según El Mundo han enviado una serie de recomendaciones a sus empleados para que hagan un uso adecuado de este tipo de plataformas. En concreto, Enagás publicará unos "principios de uso correcto de la IA en su nuevo código ético". Mapfre y Repsol también trabajan ya con protocolos —o están elaborándolos— para hacer un uso seguro de ChatGPT.
... pero investigando sus posibilidades. Estas restricciones no impiden que algunos grupos de trabajo en estas y otras empresas españolas estén analizando el impacto y aplicación de ChatGPT en sus procesos. En El Mundo señalan como los empleados de Repsol ya han enviado más de 250 propuestas de aplicaciones basadas en ChatGPT u otras plataformas. En Enagás están analizando su aplicación a sus procesos de negocio, y Telefónica está aplicándola "en toda la cadena de valor y trabaja en un manual para el uso de IA generativa".
La posición de Telefónica. La empresa ha compartido con Xataka su comunicado oficial sobre este ámbito. En él explican cómo usan la IA "desde un enfoque ético y responsable". En dicho mensaje se indica lo siguiente al referirse específicamente a la plataforma de OpenAI:
"De conformidad con la Normativa Global de Seguridad, no se permite el uso de servicios de Internet, como es el caso de ChatGPT, para tratar o almacenar información de la empresa, a menos que las cuentas de usuarios y los servicios estén contratados y/o controlados directa o indirectamente por Telefónica. También se está valorando el uso de herramientas de IA generativa en entornos corporativos controlados por Telefónica que ofrezcan las garantías adecuadas de privacidad y seguridad de la información y eviten el acceso no autorizado de terceros".
En Xataka | Apple y el peligroso riesgo de perder el tren de la inteligencia artificial
Ver 10 comentarios