Estos últimos días los modelos de inteligencia artificial están mostrando sus limitaciones. Lo hizo ChatGPT el pasado martes al generar textos que eran un verdadero galimatías, y también le ha pasado a Google Gemini, que es capaz de generar imágenes pero que en varios ejemplos ha demostrado cometer errores notables en su diseño.
Varios usuarios comenzaron esta semana a compartir imágenes generadas con Gemini en las que este modelo se equivocaba al ser demasiado inclusivo o cometía errores de bulto al generar imágenes que reflejaran otras épocas de la historia.
Así, mostró soldados negros y orientales en la época nazi, o mujeres también representadas con esa indumentaria.
En otro ejemplo un usuario le pidió que generar imágenes de una pareja e la Alemania de 1820, y de nuevo las imágenes eran chocantes por mostrar a gente negra, oriental o incluso india (tanto de la India asiática como de los indios americanos) como parte de los resultados.
Los ejemplos afectan a otras muchas creaciones en las que por ejemplo se le pedía a Gemini que mostrara retratos de físicos famosos en el siglo XVI, o que mostrara una imagen de un Papa.
Ayer por la tarde Google reconocía el problema con estas imágenes indicando que "Gemini está generando inexactitudes en algunas representaciones históricas de generación de imágenes" y explicando que estaban trabajando en corregir el problema.
Como decían en su comunicado, su herramienta "genera un amplio rango de gente y esa es normalmente una buena idea porque gente de todo el mundo usa [Gemini], pero aquí ha errado el tiro".
Esta mañana los responsables de Google han vuelto a indicar en X que siguen trabajando en resolver el problema, pero que han decidido "pausar la generación de imágenes de gente y relanzaremos una versión mejorada pronto".
En nuestras pruebas hemos comprobado que efectivamente en estos momentos Gemini no permite crear imágenes ni con IP de España ni usando una VPN para establecer una IP en EEUU.
El problema demuestra la dificultad de entrenar estos modelos y hacer que se comporten de forma precisa en cualquier tipo de situación. No es la primera vez que vivimos una polémica de este tipo, y de hecho Google fue muy criticada cuando en 2015 el sistema de reconocimiento facial de Google Fotos etiquetó a los amigos negros de un usuario como imágenes con gorilas.
Facebook también tuvo que enfrentarse a una situación similar en septiembre de 2016. La red social censuró una de las fotos más célebras de la historia, 'The terror of war', de Nick Ut, y tapó a la niña desnuda protagonista de la foto considerando que esta era una violación de la tradicional política contra los desnudos de niños.
Ya entonces los algoritmos demostraron tener sesgos por la sencilla razón de que eran sus creadores los que los tenían en realidad. Ahora el problema de Google ha sido el inverso: su generador de imágenes ha querido ser inclusivo, pero al intentarlo se ha pasado de la raya y ha acabado provocando una polémica similar.
En Xataka | "Blanco. Negro. Ataque. Amenaza": cuando la IA cree por error que el ajedrez es racista
Ver 34 comentarios