La pregunta, lo reconozco, puede ser algo extraña. Pocas cosas hay en este mundo más confiables, más neutrales y menos 'sesgados' que un buen algoritmo. Pensar que un ordenador puede ser racista, machista o fan de Joss Whedon nos puede parecer hasta ridículo.
Y sin embargo, recientes investigaciones de Harvard y Georgetown están poniendo patas arriba todo lo que creíamos sobre internet como el 'mayor nivelador social' de la historia. ¿Y si los resultados que nos ofrecieran los buscadores fueran xenófobos, sexistas o estuvieran sesgados ideológicamente sin que lo supiéramos?
Latanya Sweeney es profesora de ciencias políticas y tecnología en la Universidad de Harvard. Un día en su despacho de la universidad googleó su nombre para buscar un artículo que había escrito hacía unos años. En la siguiente imagen se puede ver lo que encontró:

Fue sorprendente porque la profesora Sweeney nunca había arrestada. ¿Por qué, entonces, Google devolvía esos anuncios al buscar su nombre? Tras investigar un poco y probar con algunos nombres, surgió una hipótesis un poco extravagante, ¿y si los resultados variaban dependiendo de si tenías un nombre 'negro' o no?
Parecía ridículo. Al fin y al cabo, un algoritmo es un algoritmo ¿Qué hay más objetivo que un algoritmo? ¿Cómo podía un algoritmo ser racista? Lamentablemente, y tras una investigación por todo Estados Unidos, Sweeney descubrió que, en efecto, a medida que crecía la probabilidad de que un nombre perteneciera a una persona de color mayor era la probabilidad de que apareciera vinculado a arrestos o antecedentes penales (aunque esos anuncios no llevaran luego a antecedentes reales). Efectivamente, los ordenadores eran racistas.
¿Cómo es esto posible?
Antes de ponernos en plan inquisidor hemos de reconocer que, aunque nunca lo hubiéramos pensando antes, es normal. Como dice Alvaro Bedoya, del Center on Privacy and Technology, cualquier algoritmo que se precie prenderá de los procesos de discriminación y polarización que se den donde trabajen: si existen desigualdades de género al seleccionar personal, el algoritmo aprenderá de esas desigualdades y se adaptará a ellas.
Así que la respuesta más que en largas líneas de comandos, parece estar en que los algoritmos, las máquinas y los ordenadores viven en el mundo real, interacciona con él y aprende de él: la inteligencia artificial (el machine learning) era esto.
Esto hace el problema mucho más complejo. La matemática Cathy O'Neil avisaba de que aunque los algoritmos tienen un gran potencial para mejorar el mundo, pueden movernos hacia la dirección contraria. De hecho, a menudo cosas hechas con la mejor intención salen realmente mal.
Nos encontramos ante una versión extraña del problema de los filtros pero a escala social: como en el callejón del gato, Internet nos devuelve una versión a la vez real y deformada de nosotros mismos.
¿Cómo se soluciona esto?

Ante la posibilidad de que la aparente neutralidad del big data y los algoritmos disimulen bajo una capa de barniz situaciones sociales sociales injustas y violaciones de las libertades civiles, Sweeney y Bedoya plantean tres estrategias fundamentales que llevar a cabo:
Fortaleces la sociedad civil mejorando los conocimientos tecnológicos de los expertos en derecho e incentivando la implicación social de los expertos en tecnología. Necesitamos más ingenieros participando en los debates políticos y más los políticos familiarizados con los algoritmos y el big data.
Defendiendo la "transparencia algorítmica". Hay que asegurar que los algoritmos que sustentan sistemas básicos de cohesión social como la educación, la sanidad o la justicia son abiertos y trasparentes.
Protegiendo socialmente los datos personales. No solo es que las leyes y regulaciones van muy por detrás de la tecnología en lo que a protección de datos personales se refiere, es que en muchos casos las normas que se desarrollan ex novo no resultan efectivas.
A medida que la promesa de las nuevas tecnología se van haciendo realidad y el adjetivo de "nuevas" queda cada vez más obsoleto y sin sentido, vamos descubriendo que esto iba en serio. Como dijera el famoso filósofo social Benjamin Parker, 'un gran poder conlleva una gran responsabilidad'. Y los debates que vienen serán claves para saber qué responsabilidad estamos dispuestos a asumir como sociedad.
Via | Ford Foundation Images | raphaelestrada,
Ver 24 comentarios
24 comentarios
royendershade
Llamadme loco pero tambien puede ser que simplemente responda a las estadisticas, es decir, a la realidad: si resulta que se buscan mas antecedentes de personas de color, o que resulta haber mas detenciones sobre estas personas, el buscador se adapta a lo que considera mas probable. Es decir, esta haciendo lo que tiene que hacer para que cuando se busque el mayor numero de personas den con lo que quieren. No, no peude ser. Es.
gauss
http://i.imgur.com/mmILl.jpg
jorgito95
IF (black) THEN
Racist==true;
ELSE
Racist==false;
jerson andresortiz c
ahora quieren ver racismo hasta debajo de las rocas , los resultados que da google dependen tambien de lo que buscan las demas personas , de modo de que en caso de nhaber racismo , no es culpa de google , es culpa de los demas , a pero claro , es mas fácil echarle la culpa a los demas, en especial a grandes empresas.
kleiser
El algoritmo no es racista, la gente de la que extrae esos datos sí. Todo estas recomendaciones se basan en las búsquedas que ha hecho otra gente. No va a ir caso por caso a ver a que nombres le ponen detras "arrested".
Como siempre, haciendo de nuevo gala de una increíbles dotes premonitorias, el capítulo de The Good Wife ha tratado de este tema, aunque allí sí que le daban un claro tinte racista al asunto.
Land-of-Mordor
¿Nadie se ha dado cuenta que el algoritmo lo que hace es recordar búsquedas que han hecho otros usuarios con esas mismas palabras (el nombre y el apellido de esa profesora por separado) añadiendo el concepto "arrested"? Puede ser que el algoritmo esté sólo actuando así porque mucha gente a buscado a otra "Latanya" añadiendo como segunda palabra de búsqueda "arrested". De ahí que te recomiende ese tipo de búsqueda, porque para él es habitual. Si es así, el algoritmo sigue siendo totalmente imparcial, pero el resultado que arroja no lo parece por simple coincidencia estadística.
Usuario desactivado
Buen articulo, los comentarios van en la linea de lo que me imaginaba.
Aparte de eso creo es bastante acertado, hasta cierto punto es similar a el mecanismo con el lenguaje y la discriminación en general. Es un reflejo de la sociedad pero tambien la retroalimenta.
elinformal
Yo lo llamo estadística
havochin
No es racismo es la puta realidad, a muchos negros les mola ser criminales
jcr137
También puede ser que esos formen parte de un grupo objetivo(estadística de nombres con más detenciones) y en funcion de eso se asignen los anuncios correspondientes.
osan77
Y mientras tanto yo busco el nombre de la señora en google y no me sale ningún anuncio de los que le salieron a ella, los primeros resultados fueron de publicaciones de universidades, o sea, de racismo nada.
andrewquagmire
El artículo trata exactamente (y sospechosamente del mismo modo)el último episodio de "The good wife"