Ninguna Inteligencia Artificial es perfecta, pero algunas lo hacen mejor que otras y, más relacionado para el caso que nos ocupa, algunas cometen errores menos sorprendentes que ciertos proyectos en sus versiones iniciales.
La Policía Metropolitana de Londres ha desarrollado un software de reconocimiento de imágenes por el que sus empleados se ahorrarán el proceso de revisar los archivos de los móviles y ordenadores de los sospechosos en busca de pruebas ilegales. Fotos de drogas y armas, por ejemplo, pero también abusos sexuales y pornografía infantil. Sería una herramienta muy útil, ya que los trabajadores encargados de esta tarea suelen lamentarse del desgaste emocional de este tipo de tareas.
La policía anunciaba feliz que, probablemente en menos de tres años, sus agentes ya podrían confiar plenamente en delegar este proceso en la aplicación informática.
Pero como ha informado The Telegraph, no todo pinta de rosas para el Met. Dijo Mark Stokes, jefe de la sección digital del departamento forense, que esta herramienta de seguridad tal vez no es lo “suficientemente sofisticada” por el momento. Cuando el programa debía señalar o “flaggear” a personas desnudas fallaba y por mucho, demostrando poseer una mirada especialmente pecaminosa.
Confundía imágenes del desierto y sinuosas dunas de arena con piel humana, con cuerpos desnudos, algo especialmente molesto si tenemos en cuenta que mucha gente utiliza este tipo de paisajes como fondo de pantalla. El resultado: miles de protocolos de alerta activados sólo porque el propietario del ordenador o del móvil tenía guardado alguno de los fondos originales que le venían al comprar el dispositivo.
Stokes habló con el medio británico para asegurar que el equipo ya estaba contactando con desarrolladores de Silicon Valley para remediar este escollo y entrenar a su AI en el auténtico reconocimiento de la pornografía infantil. Mientras lo arreglen su software pasará a engrosar la lista de algoritmos que, por su error de planteamientos iniciales, la pifian estrepitosamente a la hora de servir a su propósito, como el dispensador de jabón que no reconocía las manos de personas de tez oscura, los resultados de búsqueda que ayudan a alimentar prejuicios y las redes sociales que censuran comprometidas imágenes ganadoras de premios Nobel.
Todos ellos ejemplos que parecen simpáticos y anecdóticos, pero que pueden influir enormemente muchos aspectos de nuestro día a día, desde nuestra inclusión social hasta nuestras opiniones. Automatizaciones con prejuicios, errores de testeo inicial y alto índice de error que perjudican, según algunos, precisamente a los que no se asemejan a los desarrolladores, y que al tratarse de herramientas que se usan de forma general pueden provocar consecuencias a niveles masivos.
Que dependamos más y más de programas sin experiencia humana, por mucho que se desarrolle el machine learning, sigue siendo un punto que nos retrotrae a las novelas distópicas. Aunque, si lo hubiésemos leído en un libro y no conocido por la vida real, un programa que potencialmente pide el encarcelamiento de aquellos que tienen escenarios áridos en su móvil nos parecería una idea de escaso talento literario.
Ver todos los comentarios en https://www.xataka.com
VER 0 Comentario