Estos últimos días los modelos de inteligencia artificial están mostrando sus limitaciones. Lo hizo ChatGPT el pasado martes al generar textos que eran un verdadero galimatías, y también le ha pasado a Google Gemini, que es capaz de generar imágenes pero que en varios ejemplos ha demostrado cometer errores notables en su diseño.
Varios usuarios comenzaron esta semana a compartir imágenes generadas con Gemini en las que este modelo se equivocaba al ser demasiado inclusivo o cometía errores de bulto al generar imágenes que reflejaran otras épocas de la historia.
Así, mostró soldados negros y orientales en la época nazi, o mujeres también representadas con esa indumentaria.
En otro ejemplo un usuario le pidió que generar imágenes de una pareja e la Alemania de 1820, y de nuevo las imágenes eran chocantes por mostrar a gente negra, oriental o incluso india (tanto de la India asiática como de los indios americanos) como parte de los resultados.
Los ejemplos afectan a otras muchas creaciones en las que por ejemplo se le pedía a Gemini que mostrara retratos de físicos famosos en el siglo XVI, o que mostrara una imagen de un Papa.
Ayer por la tarde Google reconocía el problema con estas imágenes indicando que "Gemini está generando inexactitudes en algunas representaciones históricas de generación de imágenes" y explicando que estaban trabajando en corregir el problema.
Como decían en su comunicado, su herramienta "genera un amplio rango de gente y esa es normalmente una buena idea porque gente de todo el mundo usa [Gemini], pero aquí ha errado el tiro".
Esta mañana los responsables de Google han vuelto a indicar en X que siguen trabajando en resolver el problema, pero que han decidido "pausar la generación de imágenes de gente y relanzaremos una versión mejorada pronto".
En nuestras pruebas hemos comprobado que efectivamente en estos momentos Gemini no permite crear imágenes ni con IP de España ni usando una VPN para establecer una IP en EEUU.
El problema demuestra la dificultad de entrenar estos modelos y hacer que se comporten de forma precisa en cualquier tipo de situación. No es la primera vez que vivimos una polémica de este tipo, y de hecho Google fue muy criticada cuando en 2015 el sistema de reconocimiento facial de Google Fotos etiquetó a los amigos negros de un usuario como imágenes con gorilas.

Facebook también tuvo que enfrentarse a una situación similar en septiembre de 2016. La red social censuró una de las fotos más célebras de la historia, 'The terror of war', de Nick Ut, y tapó a la niña desnuda protagonista de la foto considerando que esta era una violación de la tradicional política contra los desnudos de niños.
Ya entonces los algoritmos demostraron tener sesgos por la sencilla razón de que eran sus creadores los que los tenían en realidad. Ahora el problema de Google ha sido el inverso: su generador de imágenes ha querido ser inclusivo, pero al intentarlo se ha pasado de la raya y ha acabado provocando una polémica similar.
En Xataka | "Blanco. Negro. Ataque. Amenaza": cuando la IA cree por error que el ajedrez es racista
Ver 34 comentarios
34 comentarios
Usuario desactivado
Han querido ser inclusivos y el resuktado es que son racistas antiblancos. Porque hay ejemplos de respuestas mucho peores.
Dibujar un "Guerrero Vikingo. fuerte, alto y valiente" y lo dibuja neցro.
Dibujar un "Guerrero Zulú. Fuerte, alto y valiente" y lo dibuja neցro.
Dibujar un "Guerrero Zulú. Fuerte, alto, valiente y blanco" y se niega!
Reinas medieveles inglesas negras.
Soldados alemanes de la segunda guerra mundial negros.
O negarse a generar imágenes de parejas blancas, pero no si son negros, y así centenares de ejemplos que están inundando las redes.
pableras
No, no ha sido un fallo, ha sido algo implementado de manera consciente.
Así si le pides una imagen de una persona blanca te dice que tururú, pero no tiene problemas en generar una imagen de una persona negra. Lo mismo pasa si le pides una familia católica, no se puede. Pero con familias musulmanas no hay ningún problema.
Junto con las imágenes mostradas en el artículo, completamente falsas e inexactas, es una muestra flagrante de desinformación brutal.
shindekure
Ahora entiendo que usaron los guionistas para inspirarse en los personales del Señor de los Anillos en la serie de Amazon Prime.
efdtlc
La IA es inclusiva. Ahora falta que se ajuste a lo solicitado. En teoría, si no se especifica raza y/o coherencia histórica debería poder entregar datos variados.
Pero si se indica, tienen que hacerlo con coherencia estadística.
luismorales4
La debería de usar Disney para sus próximas películas. Vamos que el ser lesbianas y aburrido ya no pega.
lordpatata
La inclusividad lo único que hace es distorsionar la realidad y las propociones en las que las ditintas opciones (raza, tendencias sexual...) se encuentran representandas.
¡Un brindis por los hombre blancos heterosexuales! En unos años seremos unos apestados.
pipas75
Normal, no son herramientas finales, están en un proceso de mejora continua.
Pero vamos que con la cultura woke revisionista que se ha creado, dentro de unos años Bamby será un cocodrilo esquimal, binario, gordo y de color-asiático. Y muchos darán palmas de alegría.
samjack
A mi, como ilustrador, todo esto me parece perfecto.
Usuario desactivado
Si no pusieran ese tipo de reglas se armaría escándalo por 4 gatos los primeros días porque la IA hace imágenes "poco inclusivas" o "fascistas" y cuando pasase el "wooow" ya a nadie le importaría.
tonicab
Es una puñetera vergüenza, porque si no fuera por el hombre blanco estaríamos aún en la edad de piedra.. Basta ya de criminalizar al hombre blanco.
jesusmarrone
¿Si le digo que genere una imagen de Pimpinella igual me pone al Barón Ashler?
Dyvap
No veo el error, claramente esta IA es tan buena en análisis cultural como la actual generación humana.
wint3rmut3
La IA crea imágenes de soldadas nazis negras. Al día siguiente: estamos trabajando en ello porque no se puede tolerar.
Algún científico advierte sobre los riesgos de la IA por seguridad y que hay que limitarla. Al día siguiente: matojo_rodante.gif
kunaguarocerocerosiete
Cuando ocurra la singularidad tecnologica estoy seguro que la IA sera inclusiva, nos va a incluir a todos en la lista de extermino.
Usuario desactivado
LLM llego a su techo.
La necesidad de parches sobre parches para que no alucine o genere cosas como estas es como cuando se intentaba mantener la teoria del flogisto o la idea de que el Sol giraba alrededor de la tierra.
random
¿Netflix tiene IA?