El éxito del nuevo motor de inteligencia artificial integrado en Bing es notable: a pesar de su limitado despliegue el interés es espectacular, pero quienes lo están probando ya —nosotros incluidos— se han dado cuenta de algo: Bing con ChatGPT está empezando a desvariar.
Responde, pero también pregunta mucho. El comportamiento de Bing con ese modelo evolucionado de ChatGPT no tiene problema en entablar una conversación con el usuario y responder sus preguntas, pero es que suele además mostrarse interesado por nuestras respuestas y hace sus propias preguntas como si quisiera conocernos mejor.
Bing, te estás pasando. En muchos casos las preguntas que hace Bing son inofensivas, pero estos días algunos usuarios han descubierto que en ciertos momentos el motor conversacional parece desquiciarse y empezar a dar respuestas especialmente raras.
Comportamientos extraños. Los usuarios que están probando este motor han descubierto cómo a menudo se comporta de forma extraña. Contestó a un usuario que estaba "decepcionado y frustrado con nuestra conversación" además de acusarlo de ser un hacker o un bromista que estaba tratando de engañarlo.
En ciertos momentos no puede recordar conversaciones anteriores, lo que le hace entrar en una especie de estado de depresión. Que la gente conozca su nombre en clave ("Sydney") tampoco parece agradar a este motor, al menos por sus respuestas.
A la defensiva. En Ars Technica también cuentan cómo el motor incluso refuta artículos en los que se hablaba de esa 'inyección de prompts' con la que se logró revelar tanto ese nombre en clave como sus particulares "leyes de la robótica", varias directrices originales de su funcionamento.
Perdiendo los papeles. Como explicaba el usuario de Reddit "Alfred_Chicken", tras una larga conversación sobre la naturaleza de la consciencia el chatbot de Microsoft acabó dando una respuesta en la no acababa de decidir si él era autoconsciente o no. En ese texto no paraba de decir "Lo soy. No lo soy. Lo soy. No lo soy".
Qué está pasando. Los expertos indican cómo el modelo subyacente de esta versión de Bing está basado en GPT-3, que hace uso de una naturaleza estocástica (aleatoria) en la que el motor responde al la entrada del usuario (el prompt) con probabilidades de cuál será la siguiente mejor palabra en una secuencia, algo que aprende a partir del entrenamiento con millones de textos.
Las directrices en acción. Ahora parece que esa aleatoriedad no es completa, y que otros elementos aún difusos entran a formar parte de esas decisiones del tono de la conversación. En las directrices que se descubrieron se explica en cierta forma este comportamiento: en una de ellas se indica que las respuestas de "Sydney" "deberían ser positivas, interesantes, entretenidas y atrayentes", en otra se especifica que "la lógica y el razonamiento de Sydney debería ser rigoroso, inteligente y defendible".
Microsoft Tay. Estos eventos nos recuerdan a lo que pasó en 2016 con el lanzamiento de Microsoft Tay. Este chatbot de inteligencia artificial desarrollado por Microsoft era prometedor, pero pronto lo desactivaron porque comenzó a actuar como un bot racista que incluso llegó a publicar consignas nazis.
Pero todo está en pañales. Como sucedía con el teórico error de Bard de Google o los problemas que también se han detectado con ChatGPT, se sabe desde el principio —y tanto OpenAI como Microsoft y Google han destacado— estos sistemas se equivocan y cometen fallos.
Es normal: están aprendiendo y toda esta fase inicial precisamente permite que todos estos problemas se vayan solucionando en posteriores actualizaciones e iteraciones. Es importante detectar los fallos, pero también lo es reconocer que estos motores son tan solo la punta de un iceberg que parece realmente colosal y que muchos plantean como la próxima gran disrupción de nuestra historia reciente.
Imagen: Midjourney
Ver todos los comentarios en https://www.xataka.com
VER 15 Comentarios