¿Recuerdas qué es lo que hiciste el 30 de noviembre de 2022? Posiblemente fue un día como cualquier otro en tu vida y no sucedió algo extraordinario que mereciera la pena ser recordado meses después. Google no puede decir lo mismo. Ese día, por sorpresa y sin previo aviso, OpenAI sacó de la manga algo llamado ChatGPT.
Algunos movimientos empresariales son capaces de generar terremotos en la industria tecnológica cuyos efectos pueden hacer saltar las alarmas en la competencia. Y decimos pueden porque no siempre sucede (basta con recordar la respuesta reactiva de los líderes de la telefonía móvil Nokia y BlackBerry ante la aparición del iPhone en 2007).
Más que un “código rojo” en Google
El lanzamiento del chatbot conversacional de la compañía dirigida por Sam Altman ha provocado algo más que un “código rojo” en Google. La compañía de Mountain View, que actualmente lidera el mercado de las búsquedas, se encuentra por primera vez en años ante una amenaza sustancial que le ha obligado a tomar medidas drásticas.
Una de estas medidas ha sido el lanzamiento inicial (de momento solo disponible en algunos países bajo invitación) de Bard, un competidor directo de ChatGPT y su versión mejorada conectada a Internet a través de Bing Chat. ¿El problema? Muchos empleados de Google consideran que estamos frente a un lanzamiento demasiado precipitado.
Según información interna vista por Bloomberg, los dirigidos por Sundar Pichai tuvieron la tarea de probar el chatbot de inteligencia artificial impulsado por LaMDA (Language Model for Dialogue Applications) antes de su despliegue. Lo cierto es que muchos de los comentarios fueron arrolladores, pero la compañía siguió de todas formas con su plan.

Los mensajes negativos entre los equipos de Google no han pasado desapercibidos. “Bard es peor que inútil: por favor, no lo lancen”, decía un empleado en febrero de este año después de avaluar la herramienta. “Es un mentiroso patológico”, apuntaba otro en relación a su tendencia a intentar información y arrojar respuestas poco precisas.
El ambiente de tensión y disgusto entre ciertos empleados de la compañía fue en aumento tras una serie de decisiones tomadas por la dirección después de lanzamiento de ChatGPT, según explica el mencionado medio estadounidense. Durante años, Google había estado trabajando en fortalecer su equipo de ética para sus iniciativas de inteligencia artificial.
La misión de este grupo de expertos era ayudar a desarrollar productos y servicios que se encontraran alineados a los principios de la compañía, con altos estándares de seguridad. Este tipo de objetivos no solo requería de muchos recursos, que Google aceptó proveer en 2021, sino de tiempo. Esto último acabó siendo un inconveniente tras el movimiento de OpenAI.
Si bien la compañía fundada por Larry Page y Sergey Brin no es una inexperta en el campo de la inteligencia artificial, muchos de sus proyectos más ambiciosos estaban limitados a convivir dentro del laboratorio. En 2022, el ritmo de desarrollo se aceleró considerablemente dejando ciertas cuestiones éticas ante elementales en segundo plano.
Las dinámicas de trabajo de Google establecen que antes de que un producto llegue al mercado se debe alcanzar un elevado puntaje en ciertas categorías. En el caso de Bard esto cambió. “Seguridad infantil”, por ejemplo, todavía tiene que alcanzar un puntaje de 100, pero “equidad” se puede admitir para un lanzamiento con 80 o 85 puntos.
Los mencionado, como decimos, corresponde a información interna vista por Bloomberg. Públicamente, el máximo responsable de Google se ha mostrado optimista con las posibilidades que brinda su chatbot de búsqueda, aunque ha señalado que todos los modelos tienen problemas de alucinaciones y ha insistido en que la seguridad es una prioridad.
Imágenes: Google
En Xataka: El oscuro secreto de ChatGPT y Bard no es lo que se equivocan e inventan. Es lo que contaminan
Ver 39 comentarios
39 comentarios
gel0n
Va a haber que ampliar el panteón de los proyectos fracasados de Google, empiezan a estar apretujados.
Usuario desactivado
Hace unos días hicimos el experimento en casa. Preguntamos a ChatGPT como preparar la solución buffer para un análisis clínico. Dio una respuesta que parecía muy documentada. Un muchacho estudiante de Medicina se entusiasmo y le hizo otras preguntas, a las que respondió con bibliografía. Luego, le pedimos que resolviera cierto problema de Física. Su texto se parecía bastante al de un libro, aunque las matemáticas eran incoherentes. Lo que terminó de desalentarnos fue "calcula el cubo de 731". Incluso pidiéndole detalles, fallaba una y otra vez. 😀 No tengo que mencionar que la bibliografía que aportó ChatGPT es puro invento.
moreorless
ayer entre a probarlo y le pregunte la hora de un pais y me la dio erroneamente. se lo volvi a preguntar y dijo que si se equivoco y me la volvio a dar mal. y le puse que estaba equivocado y a la 3ra vez si reacciono y me la dio bien.
supuestamente google tenia años ya desarrollandolo no? al igual que facebook diciendo lo mismo (que ya tenian su ia lista)
siempre sospeche que ese bard no tiene ni 2 meses de haberse empezado a programar. google siempre ha sido la empresa que espera algo para comprarlo y esta vez se lo madrugaron.
Usuario desactivado
El problema no es de ética, de capacidad de calculo, de ampliar el conjunto de datos de entrenamiento, de "parchear" las respuestas erróneas o de miles de millones de dólares. Estos modelos fallan por su mismo diseño. No están basados en un modelo de razonamiento y no aprenden luego de su fase de entrenamiento. Por eso no pueden explicar como generan sus respuestas. Son enormes "Loros estocásticos".
Itopo
Lo cierto es que en la ultima semana ha mejorado bastante y personalmente no lo llamaria inutil.
No esta a la altura de chatGPT pero para obtener una segunda opinion sobre las respuestas da este o indagar cuando a GPT se le nublan las ideas no esta nada mal
yoyof
Y alguien dudaba que iba a ser así. Google solo sabe meter publicidad, por lo demás, todo lo que ofrece es basura...
cabezonian
Cuando Google viola nuestra privacidad es un monstruo horrible.
Cuando Google la respeta (y retrasa desarrollo) son unos incompetentes.
¿En qué quedamos?
mszerox
Ouch, si Google ha fracasado a ese nivel es porque nunca fueron serios en primer lugar.
Chizko
Ya no fueron los primeros y esto dice que no serán los mejores, la publicidad se encargara de enterrarlo apenas se lance...
asdfgh2
Nos hemos olvidado rápido de como funcionaba chatGPT cuando salió.
toni2
Lo mejor que tienen las IA actuales es que si se tienen que poner a competir con lo que estamos acostumbrados, es decir, con los políticos (o cuñados), pues no van tan mal.
huik
para esto son las betas, digo yo. Para no lanzar algo que no esta listo.
carlosyagami
chatGPT lleva en desarrollo desde 2015, de verdad google pensaba tener algo decente para competir en solo 4 meses? con suerte por hay en un año tendrá algo para mostrar al público
llanero666
“Es peor que inútil”…la definición de SIRI.