Hace poco más de dos años la Universidad de Washington publicó un estudio revelador sobre el sesgo de género en los resultados de las búsquedas de imágenes. El objetivo era sencillo: buscar fotografías de varias profesiones, evaluar cuán acertadamente se representaba a hombres y mujeres y cómo valoraban tales resultados los usuarios.
Se encontraron pruebas de una exageración estereotipada y una subrepresentación sistemática de las mujeres. Descubrieron que las personas calificaban mejor los resultados de búsqueda si estaban de acuerdo con el estereotipo. Y, de forma general, comprobaron que el género minoritario de un oficio se retrataba de forma menos profesional.
Un ejemplo: en los cien primeros resultados de la búsqueda de imágenes de Google para el término "CEO" el 11 % de las fotos correspondía a mujeres. En Estados Unidos, donde se llevó a cabo la investigación, el porcentaje de directoras ejecutivas era entonces de un 27 %. La consulta, resulta evidente, arrojaba una imagen distorsionada de la realidad.

Sin embargo, no hace falta llevar a cabo una gran investigación para comprobarlo. Basta con buscar términos cotidianos como "cocinar" o "colegiala" para constatar un problema evidente. En el primer caso, un predominio notable de fotografías de mujeres cocinando. En el segundo, una sexualización lacerante con o sin el filtrado de resultados explícitos.
Es un reflejo, a la postre, de parte de los males de la sociedad en la que vivimos. Anomalías a distintos niveles que según los investigadores del estudio estadounidense influyen en las percepciones personales. Sopesando el poder de estos resultados surge una pregunta evidente: ¿Google debería alterar su algoritmo para que los resultados de búsqueda de imágenes no fuesen sexistas, machistas o irreales? Abrimos el debate.
El buscador como reflejo de la red o representación de la realidad social
"Google no debería alterar sus resultados de búsqueda de imágenes para mostrar resultados no sexistas", nos dice María González, directora de esta casa. "Que el sexismo en Internet existe y es un problema es un hecho, y una de las muestras es precisamente ésa: busca 'persona en la cocina' y la mayoría de resultados son mujeres".
Que el buscador alterase los resultados tendría, para la responsable de Xataka, dos problemas: "el primero, que Google no ofrecería un fiel reflejo de Internet en la actualidad. Ofrecería resultados artificiales que no se corresponden con la realidad. Pero el problema sigue estando ahí, porque si salen esas imágenes es que en Internet hay mayoría de esas imágenes". El segundo problema sería el precedente, que los de Mountain View dejarían de tener un papel "neutral". Una vez que modificasen un algoritmo que se dedica a seleccionar y ordenar, "¿cuándo sería la próxima vez que Google alterase los resultados?", se pregunta.

"Google debería ajustarse a la realidad social y no a lo que interesa posicionar"
Cristina Alcázar, consultora de marketing en Bee Social, experta en comunicación en línea y una firme defensora de la responsabilidad de las marcas, se muestra más dubitativa. "Yo no sé si Google debería alterar su algoritmo, lo que sí sé es que debería ajustarse a la realidad social y no a lo que interesa posicionar". Esta profesional de la comunicación cree que nos deberíamos preguntar por qué interesa posicionar imágenes sexualizadas y una vez sabida la razón, "si hay que denunciar y cambiar algoritmos que se haga".
"No es solo un tema de sexismo", nos asegura Aldara Pérez, responsable SEO de Weblogs SL. "Por ejemplo, cuando un usuario busca 'familia' le costará encontrar imágenes de familias monoparentales, homoparentales e interraciales. O cuando busca 'matrimonio' también le costará encontrar entre las imágenes de los resultados, un matrimonio interracial, o un matrimonio homosexual".
¿Los resultados, entonces, cómo son? "De baja calidad", asegura la profesional del posicionamiento. "No representan la realidad social y además perpetúan esterotipos y prejuicios, por ello que considero que se debería alterar el algoritmo. Google ha definido (y defendido) sus actualizaciones como mejoras para garantizar la calidad". "Con los avances de la tecnología en reconocimiento facial sumada a los featured snippets, Google podría ofrecer en los primeros puestos de imágenes resultados que reflejen la sociedad actual en toda su amplitud".

De hecho, según nos cuenta, "de algún modo ya está actuando sobre el algoritmo de Google Imágenes y esto se aprecia al comparar los resultados de Google Imágenes en inglés (Reino Unido) versus español (España)". "Para los resultados sobre profesiones, en inglés (UK) hay mayor representación femenina y étnica", afirma Pérez, al mismo tiempo que para los resultados sobre familia y matrimonio, también en inglés de Reino Unido, "hay una mayor variedad étnica".
Qué separa lo que se puede filtrar o alterar de lo que no
Teniendo en cuenta que desde el buscador sí se lucha contra determinado tipo de contenido, ilegal o no, como material extremista, imágenes violentas, determinados contenidos para adultos, noticias falsas, propaganda política... ¿Dónde está el límite? ¿Dónde se encuentra la frontera entre la intervención o no sobre determinados resultados?
"Creo que Google debería intervenir lo menos posible a la hora de mostrar resultados"
"Una cosa es que alguien pida a Google que modifique los resultados sexistas al hacer una búsqueda y otra cosa los resultados que son directamente ilegales", dice María González. "Para los resultados ilegales, veo totalmente normal que se desindexe un contenido. Es ilegal, a fin de cuentas. ¿Qué línea separa la intervención de la no intervención? La ley. Pero más allá de eso, y entre contenidos legales, creo que Google debería intervenir lo menos posible a la hora de mostrar resultados, al menos si quiere conservar su papel de buscador neutral".

Cristina Alcázar afirma no estar a favor de la censura, "pero sí de buscar la raíz del problema y, por qué no, de favorecer las posiciones de las empresas o el contenido ético". La forma de evitar el trazado de una línea entre lo que sí se puede mostrar y lo que no, o la forma en que se expone, podría ser la creación de más filtros. "Igual añadir un filtro ético en el buscador al igual que las imágenes con Creative Commons o un filtro sin sexismo". "Es muy complejo atajar este problema y deberíamos preguntar a los que salen en primeras posiciones por qué lo hacen".
Aldara Pérez, por su parte, tiene dudas al respecto porque cree que la línea dependería exactamente del problema concreto. "Creo que muchas cosas no las tienen en el radar como problemas, por ejemplo, con las sugerencias de búsqueda en YouTube han actuado cuando se han enterado, al saltar la polémica. Supongo que plantearon de base el algoritmo sin x límites o supuestos que podrían ser problemáticos".
El impacto de unos resultados responsables
Hemos identificado el problema. Hemos visto las razones que apoyan una intervención y las que no. Independientemente de las opiniones que hemos leído, ¿creen que una alteración en positivo de los primeros resultados de determinadas consultas causaría un impacto apreciable en los usuarios?
Vuelve a responder la directora de este medio: "Creo que no. Creo que, como decía, ayudaría a enmascarar un problema y sería perjudicial, de hecho, para la lucha contra el sexismo. Busca 'nurse' en Google Images: la mayoría de resultados son mujeres. ¿Qué ganaríamos con que Google alterara artificialmente los resultados? ¿Que alguien, a la hora de ir a buscar una foto para un trabajo, artículo o lo que sea, tenga variedad de sexos? A cambio perderíamos poder ver, de un vistazo, cómo Internet tiene un gran problema en general: es sexista y por mucho que se alteren los resultados de Google el sexismo va a seguir estando ahí".
"El problema no es Google"
En línea con el anterior parecer de Alcázar, aboga por "ir a la raíz, a la fuente, y no al intermediario". "El problema no es Google, el problema son todas las páginas que comparten este tipo de fotos y no se preguntan si están ayudando a perpetuar los estereotipos laborales", concluye.
Aldara Pérez sinteriza su respuesta en una única frase: "Con resultados de búsqueda neutrales se visibilizan realidades y se educa, y la educación es la base para combatir los prejuicios y los sesgos".

"Creo que si los resultados no fueran sexistas, su granito de arena aportarían hacia la igualdad", dice Cristina Alcázar, "pero francamente me preocupa más la sexualización de la mujer y las niñas que los clichés". Cree que todo ayuda y que "es hora de concienciar" buscando la razón de esos resultados machistas. "Están ahí porque son una extensión de la sociedad, de las búsquedas y de los contenidos más compartidos. Nos debemos preguntar por qué".
Ese deber de pregunta es el que queda en el aire. Google, lo hemos dicho varias, no es más que un reflejo de todo aquello que habita en Internet. Resultados similares podríamos encontrarnos en otros buscadores como Yahoo! o Bing. Es la postura que mantienen en Mountain View y la que han expresado desde Google España a Xataka.
Nuestros resultados de búsqueda de imágenes son un reflejo del contenido de toda la web, incluida la frecuencia con la que aparecen estos tipos de imágenes y la forma en que se describen en la web. Esto significa que a veces las desagradables descripciones de temas delicados pueden afectar los resultados de la búsqueda de imágenes que aparecen para una consulta determinada. Estos resultados no reflejan las propias opiniones o creencias de Google: como empresa, valoramos mucho la diversidad de perspectivas, ideas y culturas.
Las dudas sobre si una alteración conseguiría un impacto positivo, no obstante, siempre quedan. Si al igual que se señalan las fake news en determinadas ocasiones, se señalasen o alterasen los resultados en casos tan flagrantes como el de la búsqueda del término "colegiala", por ejemplo, ¿no progresaríamos? Si a la hora de buscar imágenes de todo tipo de profesiones la representación de hombres y mujeres fuese más realista y concordase con los tiempos actuales, ¿no podría ayudar, poco a poco, al destierro de estereotipos?
El debate es largo e interesante. Y todos llegaremos a nuestras propias conclusiones, incluidos quienes se encargan de marcar el devenir de herramientas tan indirectamente influyentes como Google Imágenes.
En Magnet | El empleado del "manifiesto" de Google tenía razón, pero no por las razones que él creía
Ver 59 comentarios
59 comentarios
Usuario desactivado
"La consulta, resulta evidente, arrojaba una imagen distorsionada de la realidad".
Falso. Que el porcentaje de mujeres entre los resultados al buscar imágenes de "CEO" no coincida con el porcentaje de mujeres CEO en EEUU es perfectamente normal.
Google Images no es una enciclopedia. No es la wikipedia. No es un creador de contenidos, no es una fuente, es un buscador.
Google muestra lo que hay en la web, si la web es machista pues los resultados serán machistas. Igual que si busco "navidades" salen imágenes nevadas cuando las navidades en latinoamérica de nieve tienen poco porque es verano.
A ver si dejamos de hacer el subnormal, la lucha por ser una sociedad igualitaria no pasa por pretender que Google adultere los resultados, o directamente se los invente, la lucha está en exigir que se cumplan nuestros derechos y en perseguir y denunciar los abusos. La lucha está en la educación.
Irse a Google Images a buscar la igualdad me parece una auténtica payasada, porque Google no es más que una ventana, taparla o poner un su lugar una tele con lo que queremos ver es infantil y no va al origen del problema que es la sociedad.
frikiplus
Si busco "albañilería", me da hombres. ¿Debería google modificar los resultados?
killerrapid
Os estáis cargando un blog de tecnología por subiros al carro del feminazismo, machismo y su santa madre...
Hablad de tecnología que para eso sois un blog de tecnología, no un jodido blog de lo políticamente correcto, ni sois el jodido Sálvame, ni las noticias de Cuatro o Telecinco...NO, basta ya Xataka, queremos tecnología.
Vuestras opiniones personales que cada vez se notan mas de que palo vais políticamente y moralmente, las dejáis para un blog personal donde deis rienda suelta a todos vuestros ogros internos de las mierdas actuales, pero porfavor, dejadnos ya de intentar comernos la cabeza con estas absurdeces que sobran en un blog de tecnología, TECNOLOGIA.
jujuan lolopez
Seguramente, al principio, al buscar colegiala, saldrían imágenes de colegialas normales, pero si todo el mundo pincha en la foto de la “colegiala” que aparece enseñando carne, pues Google aprende de nuestras necesidades.
Lo que Google muestra es lo que busca la mayoría. No veo dónde está el problema.
Usuario desactivado
Estupendo... las absurdas y forzadas noticias sobre machismo, feminismo y discriminación con que nos están bombardeando en todos los medios desde hace meses, pero especialmente en las últimas semanas (me pregunto si los medios reciben algún tipo de consigna para que todos coincidan en lanzar este tipo de noticias a la vez) ahora me las encuentro también en un blog de tecnología como Xataka donde si cabe aún pintan menos y resultan aún mas forzadas.
Lo siento pero esto me resulta ya insoportable y ya son varias las noticias de este tipo que habeis publicado ultimamete, la última hace bien poco preguntándose se los juguetes son machistas.
Si buscáis que la gente deje de leer este blog váis por buen camino.
supermarius
Ya aburre la basura NAZIfeminista, una feminista es un ser tan despreciable e imbecil como un machista,, que tiene de malo cocinar o que aparezcan mujeres cocinando? acaso no son hombres la mayoria de los chef, por que no dejan que cada cual haga loq ue le de la gana y dejan ya de manipular y querer dirigir a la sociedad,?? por que nos tienen muy hartos estos parasitos de la inquisicion progre
jhonjhon
Google no tiene que cambiar, tiene que cambiar la sociedad. Si no os gusta la realidad, llevad a todas las cocineras o aficionadas a la cocina a trabajar en la albañilería y a todos los albañiles a cocinar, entonces el algoritmo por sí sólo se corregirá.
Usuario desactivado
El caso es que a nadie le importaba esto hasta que a alguna feminista le dio por tirar el dinero destinado a investigación en analizar si un buscador de imágenes es machista.
kike4
¿quien cocina en sus casas? por lo menos en la mía por cuestiones de horario solo cocino los fines de semana y los demás días mi esposa. Soy latino y en los restaurantes o "comedores" como decimos por aquí son señoras las que cocinan comida tradicional. Por lo menos en esta parte es normal que haya mas mujeres cocinando y muy pocas mujeres como pilotos de autobús por ejemplo; por cuestiones de seguridad es más seguro ser cocinero que piloto. El problema es que queremos que todo el mundo acepte nuestras ideologías, pero no queremos aceptar las de los demás. Queremos igualdad en derechos, pero cuando toca la igualdad en obligaciones allí ponemos sobre la mesa las diferencias.
Tienes derecho a criticar mi forma de pensar, pero no tienes derecho a cambiar mi forma de pensar, yo tengo obligación de escucharte, pero también tengo derecho a no estar de acuerdo.
bravo1997
El primer artículo sin sentido del año. Empezamos bien con la corrección política. Ahora toca adulterar los resultados de un algoritmo para que cuatro gatos estén contentos.
alberto_bengoa
Este feminismo machista que trata a las mujeres como seres inferiores, se os está yendo de las manos.
dantealighieri
Google es un buscador, y como tal ofrece resultados acordes con el mundo real. Por eso si buscas cocinar te salen mujeres, porque los roles de género existen. Que google filtrase esos resultados para que fuesen más acordes con nuestra opinión de un mundo ideal (presumo: en el que no existe este tipo de sesgo) solo contribuiría a invisibilizar el problema, no a acabar con él.
marcosruizgarcia
Huele a humo y en vez de apagar el fuego echamos ambientador. Esto es absurdo.
apertotes
Sois la polla, y además cansáis mucho. Si digo que en Halloween me disfracé de colegiala, lo que TODOS y TODAS vais a imaginar es lo que sale en Google. Por lo tanto, refleja la realidad perfectamente.
Si en vez de "colegiala", buscáis "estudiante" tendréis unos resultados mucho más acordes a vuestra pretendida moralidad. Aunque no salen casi negros. ¡¡Maldito Google!!
Exos
Pues nada, si les molesta que cuando buscas cocinar salgan mujeres, pues que vayan cerrando blogs de cocina a sus congéneres, seguro que estarán encantadas por contribuir a la causa...
Yo alucino que se planteen hablar seriamente de ciertas pajas mentales.
draghann
Yo creo que lo que Google debe hacer es reflejar la realidad sea cual sea. Si aún siguen siendo las mujeres las que cocinan en mayor porcentaje que los hombres me parece lógico. Cuando eso cambie, cambiarán los resultados...
rennoib.tg
A mi me busca recetas y javirecetas. Google se adapta a lo que uno más busca.
En cualquier caso, es un error forzar a cambiar las cosas que de forma natural van evolucionando.
odelrio
- Cuando busco "robar", Google Images me muestra hombres: ¿debería Google modificar los resultados?
- No, porque la mayoría de robos son cometidos por hombres. Del mismo modo que si hiciésemos un concurso de cocina se presentarían más mujeres que hombres.
Usuario desactivado
Google deberia modificar el algoritmo para que no salgan tantas imagenes de violencia. Todas las pistolas, cuchillos, palos, etc fuera de los resultados. Es cierto que la sociedad es violenta, pero asi ayudaria a que se acaben las guerras, seguro.
Las palabrotas y blasfemias tambien, fuera. Que no paren de modificar el algoritmo hasta que todos los resultados pasen el test de correccion del osito de mimosin, seria lo mejor para la sociedad. De verdad de la buena.
neuronic
Joder sabeís que me ha pasado por la cabeza, que google mostrase imagenes de cocinar anfetaminas...
equalitas
_también le costará encontrar entre las imágenes de los resultados, un matrimonio interracial_
Primera foto a la derecha
Zongoyo
La mayoría de los seres humanos que cocinan en el mundo son mujeres.
Fin de la cuestión.
jaimejames
Pues al buscar twitch womens en google imagenes aparecen puras escotadas osea la realidad.
oracon
"el primero, que Google no ofrecería un fiel reflejo de Internet en la actualidad"
Es lo que hace literalmente, todas los fotos mostradas en las imágenes de este artículo, son de fotógrafos profesionales que las ponen en páginas de búsqueda de imágenes o que se han licenciado a medios de prensa.
El primer sesgo es que hasta la era smartphone, todas las fotos eran solo de países desarrollados que tenían el dinero de comprar cámaras profesionales y subirlas ha internet, dejando que durante más de una década todas las imágenes fueran de manera arrolladora de unos pocos países desarrollados.
El otro si las fotos ahora se toman con smartphone muchas veces solo se publican en redes donde el buscador de Google no puede entrar como Facebook,Instagram o en mensajería privada.
Por lo que el algoritmo de Google indexa lo que está en internet.
asdfer
No deberia porque google es solo un buscador y no deberia discriminar, solo dwberia buscar lo que hay en la red, lo que hay que cambiar es el contenido y crear imagenes de hombres cocinando.