En el mundo de las pizzas el gran debate de "con piña / sin piña" ha quedado en segundo plano tras la última metedura de pata de Google. Sus modelos de IA generativa ya la han metido en problemas en el pasado, pero es que ahora vuelven a demostrar que (como en otros casos) uno no debe fiarse mucho de ellos.
Pegamento para el queso de la pizza. Un usuario compartía ayer una búsqueda en Google. "El queso no se pega a la pizza", se quejaba. El nuevo buscador ya cuenta con resultados sugeridos por IA, lo que Google llama "AI Overview", y en esa respuesta la IA de Google sugería que "también puedes añadir 1/8 de taza de pegamento no tóxico a la salsa para darle más adhesividad".
Pero es que ese dato erróneo era una antitua broma de Reddit. La sorprendente sugerencia no era ni siquiera una invención del modelo de IA de Google. El chatbot sencillamente lo plagió de un comentario irónico que un usuario de Reddit llamado Fucksmith hizo hace 11 años. ¿Por qué la IA de Google consideró ese comentario como legítimo? Imposible saberlo.
Google usa datos de Reddit para su IA. Y lo hace además oficialmente gracias al acuerdo al que ambas empresas llegaron hace pocas semanas. Eso permite que los modelos de IA de Google se entrenen con todos los comentarios de esta plataforma, y aunque muchos son útiles, otros son simplemente bromas e ironías.
Loros estocásticos. La IA no entiende ni lo que lee ni lo que escribe. Un estudio de 2021 ya dejó claro cómo este tipo de modelos de IA generativa son como loros estocásticos: puede ser convincente a la hora de generar texto, pero realmente no hay una comprensión de lo que hace.
Peligrosamente erróneos. Las probabilidades mandan aquí, y si el modelo considera que pegar el queso a la pizza es relevante —por cómo está programado—, lo recomendará sin saber si es un método adecuado o no de conseguir ese efecto. Aquí el error es hasta simpático, pero el problema reside en que se puede producir en escenarios mucho más sensibles.
Otro desastre de la IA de Google. Las meteduras de pata de los modelos de IA de Google se están haciendo tristemente famosas. Todo comenzó con Bard y su error en una pregunta sobre el James Webb Space Telescope. Hace apenas tres meses los problemas se vivieron con su motor de generación de imágenes que era excesivamente inclusivo, y ahora vuelven a cometer un error inocente pero de bulto con ese método para cocinar la pizza.
Por si acaso, no te fíes. Aunque el error lo ha cometido Google, todos los chatbots cometen errores en cuestiones de todo tipo. Incluso en áreas como las matemáticas, un área en la que nos fiamos de los ordenadores, ChatGPT comete errores de bulto, pero insistimos, lo hace tanto él como otros, y tanto en matemáticas como en muchos otros ámbitos en los que inventa datos. La conclusión sigue siedo la misma: por si acaso, no te fíes de todo lo que te dice, y verifica esas respuestas.
Ah, y otra cosa. Viva la pizza con piña.
En Xataka | ChatGPT está escribiendo estudios médicos y económicos. Lo sabemos porque usa palabras rarunas
Ver 15 comentarios
15 comentarios
mord
¡Ah! La sabiduría de Internet. Nunca defrauda.
Espera a que decidan entrenar a la IA de Google con Yahoo Answers. Verás que risas. 😅
Ahora en serio: Es lo que dice el artículo. La IA no sabe qué es una pizza, ni que es el queso, ni el pegamento. ¿Como esperar nada de ella? Sólo queda seguir refinando datos hasta que lo tenga todo y lo tenga bien. Pura memoritis, como decía mi profe de física.
El Berberecho Azul
Vosotros justo ayer o anteayer le dijistéis a vuestros lectores que usaran en una receta un porrón de colorante alimentario a lo bruto... como si fuera un edulcorante.
Cosas de vuestras traducciones....
crisct
No, con piña nooooo
victorvidal
Como fotógrafo de producto tengo que defender lo del pegamento, lo uso para crear queso fundido. Como el puré de maizena para hacer bolas de helado, gelatina para los cubitos de hielo, tiza rayada para el azúcar glasé,... y así, una infinidad de trucos que usamos para que la comida también te entre por el ojo ya que en condiciones normales, fotografiar un helado por ejemplo, sería tedioso porque se derrite muy rápido y no vas a hacer las fotos dentro de una cámara frigorífica.
red1
"Pero es que ese dato erróneo era una antitua broma de Reddit"
La broma es tan, pero tan antigua, que es anterior a la invención de la letra G.
jorsus
-----------------------------------------------------------------------------------------------------------------------
¿Por qué la IA de Google consideró ese comentario como legítimo? Imposible saberlo.
-----------------------------------------------------------------------------------------------------------------------
Por que la IAs generativas no son inteligentes.
Son totalmente estúpidas y lo serán durante varias décadas mas.
Son como esos niños Savant con retraso y memoria fotográfica.
Lo recuerdan todo, te responden a cualquier pregunta que les hagas.
Pero no entiende el significado, no son capaces de razonar.
Solo responden como loros con algo memorizado.
Si leen algo que es mentira no tiene capacidad de razonar que no es cierto lo que leen.
dani
Pobres, no sabéis lo que se os viene encima.
Confundís comprensión, igual que otros tantos conceptos cognitivos. La comprensión es una sensación que se produce en el cerebro cuando establecemos una relación entre conceptos que coinciden. no es muy diferente funcionalmente al proceso de cálculo en el que intervienen operandos y operadores y devuelven un resultado, la diferencia es que nosotros sentimos una sensación ya que el cerebro esencialmente es un procesador de estímulos.
Aquí la confusión y tiene que ver más con el ego humano que con otra cosa, es que la IA ha dado por válida una información que cumple dentro de un marco de reglas y no lo hace fuera de ese marco que nosotros conocemos mucho mejor. Exactamente lo mismo que sucede cuando vociferamos en una red social que algo no puede ser hasta que aparece una nueva información que amplia nuestro conocimiento y reordena las reglas que utilizamos para producir la nueva conclusión.
Cuando las personas se equivocan decimos que ha hecho un mal razonamiento, no que no razonen en absoluto ni siquiera lo decimos de quienes tienen trastorno límite de la personalidad, pero igualmente fallan como loros estocásticos.
t_r_a
pues pegamento, que no se diga, si lo dice una IA que todos sabemos que es inteligente (porque no paran de restregarlo por las narices) que así sea, por favor, todos los gurús que dicen que la IA es mas lista que los humanos, una buena pizza repleta con doble de pegamento, a ver si nos libramos de una pu†a vez de tanto gilipo||as adoradores de IAs
jorgealvarez_4
Entiendo que la IA nos quiere exterminar como especie desde Terminator.
Pero disimulen un poco...
(Aclaro que es una broma).
l0b0
"¿Por qué la IA de Google consideró ese comentario como legítimo? Imposible saberlo."
¿Imposible saberlo? pero si en unos párrafos mas abajo te auto contestas:
"La IA no entiende ni lo que lee ni lo que escribe. Un estudio de 2021 ya dejó claro cómo este tipo de modelos de IA generativa son como loros estocásticos"