Estamos preguntándole de todo ChatGPT, y eso es peligroso. Lo es porque sus propios creadores explicaron nada más lanzarlo que este chatbot "escribe respuestas plausibles pero incorrectas o sin sentido". Es decir: comete errores, pero lo hace de una manera que no parecen serlo. Su tono es tan convicente que, en efecto, uno podría pensar que tiene respuesta correcta para todo. Y no es así.
Loros estocásticos. Este término, acuñado por primera vez por Emily M. Bender en un estudio de 2021, ha acabado volviéndose muy popular al hablar de los grandes modelos de lenguaje (LLMs), que son el pilar del funcionamiento de chatbots como ChatGPT o Bard. El concepto trata de dejar algo muy claro: ChatGPT y sus competidores no son realmente "inteligentes", y hacen uso de patrones estadísticos que "repiten como loros" tras aprenderlos de grandes conjuntos de datos. No entienden el lenguaje que procesan. Al menos, no como los seres humanos.
Bien para ciertas cosas. Eso hace que en según qué escenarios ChatGPT pueda comportarse mejor. Es cierto que ya se comportaba bien en exámenes de diversas materias —GPT-4 lo hacía aún mejor— pero esas notas las sacaba no porque entendiera las preguntas o supiera las respuestas, sino porque esas respuestas eran las más probables a partir del problema dado. Estos motores conversacionales son también útiles al programar —y cada vez más— o para responder cuestiones específicas en problemas concretos. En esos casos, eso sí, todos los expertos advierten: hay que revisar las respuestas, porque ChatGPT y sus rivales inventan cosas.
Fantásticos para crear. Cuando hace años se hablaba de inteligencia artificial y de su impacto en el trabajo parecía que los menos afectados por esa revolución serían probablemente los que ocupasen puestos creativos. Eso ha cambiado totalmente con los modelos de IA generativa tanto en texto como en música o en imagen: de repente la creatividad humana está viéndose sorprendida por unos modelos que escriben poemas y novelas, sacan fotos o pintan cuadros y escriben canciones de una calidad sorprendente y que a menudo es indistinguible de la que podría haber creado un ser humano. Ahí es donde la IA se luce.
Pero no para todo. Pero ChatGPT no lo sabe todo, ni mucho menos. En MuyInteresante realizaban un experimento y le preguntaban a este chatbot cuáles habían sido las personas más inteligentes de la historia. El servicio de OpenAI contestaba que Albert Einstein, Leonardo da Vinci, Isaac Newton y Marie Curie estaban entre ellas. La lista era modesta y claramente incompleta, pero es que la pregunta era demasiado hasta para este chatbot. Eso sí: ChatGPT advertía muy a tiempo que "la inteligencia se manifiesta en diversas formas. Además, hay muchas personas a lo largo de la historia que han hecho contribuciones significativas en diversos campos y que podrían ser consideradas como personas muy inteligentes".
ChatGPT no puede contestar eso como tantas otras cosas. La advertencia final que daba este chatbot era precisamente una buena forma de reconocer que ni ella misma sabía la respuesta a esa pregunta. Ni ella ni, en realidad, nadie. Se pueden hacer listas basadas en el cociente intelectual, o ir un poco más allá y compilar listas que tienen además en cuenta los logros personales de esos genios. Y aún así, resulta casi imposible dar una contestación completa y correcta.
ChatGPT sabe que no es perfecto. Afortunadamente, ese mensaje de ChatGPT revela, como en otras situaciones, su verdadera naturaleza. Sus creadores en OpenAI —como otros lo han hecho en otros rivales— han hecho bien en incluir este tipo de advertencias al dar respuestas, pero a pesar de ello, muchos usuarios pueden estar confundiendo la situación. ChatGPT no es un repositorio de sabiduría, aunque pueda dar respuestas como si lo fuera.
Imagen | Wikipedia
En Xataka | Hemos probado el nuevo buscador de Google con IA. La duda es si realmente supone una revolución
Ver todos los comentarios en https://www.xataka.com
VER 13 Comentarios