Las expectativas de que la tecnología ayudara a minimizar los efectos de la pandemia de COVID-19 eran enormes. Sin embargo junto al descalabro de las aplicaciones de rastreo de contactos tenemos otro gran fracaso: el de una inteligencia artificial que ha servido de poco o nada a la hora de luchar contra este problema global.
Desde el inicio de la pandemia se trataron de crear algoritmos de aprendizaje automático (machine learning) que ayudaran por ejemplo a diagnosticar a los enfermos, pero ni esos ni ningún otros han acabado sirviendo de mucho. La pandemia le ha ganado la batalla a la IA.
Mucho ruido, pocas nueces
Lo explicaban en MIT Technology Review, donde recordaban los esfuerzos múltiples que se han llevado a cabo para tratar de que la inteligencia artificial fuera una herramienta útil contra la COVID-19.
No lo ha sido: el Turing Institute británico emitía en junio un informe (PDF) en el que revelaba que las herramientas creadas con IA han tenido poco o ningún impacto en la lucha contra la pandemia.
Para estos investigadores la inteligencia artificial sigue teniendo el potencial para ayudar en estas situaciones, pero hay también peligros a la vista: se podrían producir diagnósticos erróneos o que subestimaran el riesgo para pacientes vulnerables.
Otros estudios como el aparecido en el British Medical Journal u otro publicado en Nature Machine Intelligence de un investigador de la Universidad de Cambridge llegaban a la misma conclusión: cientos de herramientas se publicaron, y ninguna de ellas estaba preparada para usos clínicos reales.
A ese problema se suma otro crucial: estos algoritmos necesitan ser alimentados con datos, y aunque durante la pandemia se ha recolectando una enorme cantidad de ellos, muchos no estaban correctamente etiquetados o provenían de fuentes desconocidas. Algunos expertos llaman a esas colecciones de datos poco confiables "conjuntos de datos de Frankenstein", y en ellos aparecían problemas como duplicidad y redundancia que reducían la efectividad de los algoritmos.
Los sesgos de incorporación —introducidos cuando se etiquetan los datos— ha sido otro de los problemas: era mucho más adecuado etiquetar por ejemplo una exploración médica con el resultado de una prueba PCR que con la opinión de un médico, pero como decían estos investigadores, el ajetreo de los hospitales ante la pandemia ha hecho difíci algo así.
También ha habido problemas de coordinación: muchos investigadores se apresuraron a crear sus propios modelos en lugar de trabajar en conjunto con otros analistas y médicos.
Como decía uno de los expertos que estudió esos esfuerzos: "los modelos son tan similares -casi todos usan las mismas técnicas con pequeñas modificaciones, y con los mismos datos- que todos cometen los mismos errores".
La OMS está considerando crear un proyecto que permita compartir datos para que en el futuro se eviten o al menos se minimicen estos problemas, pero la propuesta es aún algo difusa. Lo cierto es que el fracaso de la inteligencia artificial ante la COVID-19 ha sido claro, y ahora solo queda esperar que todo esto ayude a que en el futuro no se repitan los mismos errores.
Vía | MIT Technology Review
Ver 15 comentarios
15 comentarios
cacatuaromantica
Normal, el comportamiento humano es complicado de predecir, solo sabemos que hay muchos idiotas suelto pero hasta ahi.
t_r_a
habría que cambiarle el nombre por EI, estupidez artificial
ae123
La IA ahora mismo sirve de complemento, y depende mucho de la capacidad humana para avanzar, y los ultimos avances siguen haciendola ver TAN dependiente que nunca.
No me sorprende para nada la incapacidad de la IA, si es coja desde su concepcion.
mhaneshao
"Sólo hay dos cosas infinitas: el universo y la estupidez humana. Y de la primera no estoy seguro". Albert Einstein.
Y por muy IA que sea, el infinito no lo puede abarcar
copilotito
Esto solo confirma que los datos que se nos muetran diariamente no son confiables. Lo han dicho los expertos, de acuerdo con esta noticia.
jesusrodriguez_1
Solo he visto intentos de implementación para detectar síntomas, pero no he visto intentos de real impacto como toma de decisiones estratégicas para evitar propagación, ejemplo: ¿cuándo abrir o cerrar puertos aereos/terrestres? es decir, usar IA para hacer eficiente la logística o cómo lidiar con este fenómeno. Había mucho mayor potencial ahí.