Las expectativas de que la tecnología ayudara a minimizar los efectos de la pandemia de COVID-19 eran enormes. Sin embargo junto al descalabro de las aplicaciones de rastreo de contactos tenemos otro gran fracaso: el de una inteligencia artificial que ha servido de poco o nada a la hora de luchar contra este problema global.
Desde el inicio de la pandemia se trataron de crear algoritmos de aprendizaje automático (machine learning) que ayudaran por ejemplo a diagnosticar a los enfermos, pero ni esos ni ningún otros han acabado sirviendo de mucho. La pandemia le ha ganado la batalla a la IA.
Mucho ruido, pocas nueces
Lo explicaban en MIT Technology Review, donde recordaban los esfuerzos múltiples que se han llevado a cabo para tratar de que la inteligencia artificial fuera una herramienta útil contra la COVID-19.
No lo ha sido: el Turing Institute británico emitía en junio un informe (PDF) en el que revelaba que las herramientas creadas con IA han tenido poco o ningún impacto en la lucha contra la pandemia.
Para estos investigadores la inteligencia artificial sigue teniendo el potencial para ayudar en estas situaciones, pero hay también peligros a la vista: se podrían producir diagnósticos erróneos o que subestimaran el riesgo para pacientes vulnerables.
Otros estudios como el aparecido en el British Medical Journal u otro publicado en Nature Machine Intelligence de un investigador de la Universidad de Cambridge llegaban a la misma conclusión: cientos de herramientas se publicaron, y ninguna de ellas estaba preparada para usos clínicos reales.
A ese problema se suma otro crucial: estos algoritmos necesitan ser alimentados con datos, y aunque durante la pandemia se ha recolectando una enorme cantidad de ellos, muchos no estaban correctamente etiquetados o provenían de fuentes desconocidas. Algunos expertos llaman a esas colecciones de datos poco confiables "conjuntos de datos de Frankenstein", y en ellos aparecían problemas como duplicidad y redundancia que reducían la efectividad de los algoritmos.
Los sesgos de incorporación —introducidos cuando se etiquetan los datos— ha sido otro de los problemas: era mucho más adecuado etiquetar por ejemplo una exploración médica con el resultado de una prueba PCR que con la opinión de un médico, pero como decían estos investigadores, el ajetreo de los hospitales ante la pandemia ha hecho difíci algo así.
También ha habido problemas de coordinación: muchos investigadores se apresuraron a crear sus propios modelos en lugar de trabajar en conjunto con otros analistas y médicos.
Como decía uno de los expertos que estudió esos esfuerzos: "los modelos son tan similares -casi todos usan las mismas técnicas con pequeñas modificaciones, y con los mismos datos- que todos cometen los mismos errores".
La OMS está considerando crear un proyecto que permita compartir datos para que en el futuro se eviten o al menos se minimicen estos problemas, pero la propuesta es aún algo difusa. Lo cierto es que el fracaso de la inteligencia artificial ante la COVID-19 ha sido claro, y ahora solo queda esperar que todo esto ayude a que en el futuro no se repitan los mismos errores.
Vía | MIT Technology Review
Ver todos los comentarios en https://www.xataka.com
VER 15 Comentarios