Uno de los campos donde se está tratando de aplicar la inteligencia artificial es en el de la medicina. Ya hemos encontrado antibióticos gracias a la inteligencia artificial y Google ha puesto su IA a detectar cáncer de mama o enfermedades oculares por ejemplo. Pero precisamente en esto último quizás no sea tan buena como parecía, su efectividad en hospitales reales y no en las pruebas de laboratorio es bastante menor de la deseada.
Durante años Google ha estado trabajando en mejorar su inteligencia artificial para que sea capaz de detectar enfermedades oculares analizando fotografías de retinas. Mediante esto se puede agilizar el proceso de diagnóstico y de este modo facilitar el trabajo de los médicos sin tener que comprobar ellos uno a uno todos los posibles casos. En pruebas de laboratorio Google explica que habían conseguido una precisión de hasta el 90% a la hora de detectar retinopatía diabética. Por lo que quisieron empezar a probar en hospitales reales.

En un paper publicado por Google Health, explican cómo ha sido la experiencia de utilizar el sistema de aprendizaje automático para detectar retinopatía diabética en varios hospitales. No tan bien como esperaban y de hecho a menudo llegó incluso a ser un inconveniente.
De las condiciones idílicas del laboratorio a la cruda realidad
Para realizar sus pruebas Google se alió con el gobierno tailandés para implementar la IA en un total de 11 clínicas/hospitales de zonas rurales de Tailandia. El sistema estaba diseñado para detectar retinopatía diabética, una de las principales causas de pérdida de visión en todo el mundo. Generalmente el proceso sin intervención por parte de la IA dura varias semanas desde que se toman fotografías del ojo del paciente hasta que son analizadas y se devuelven los resultados por parte de los especialistas. La idea era agilizar esto a cuestión de minutos.
Según explican, la implementación fue más complicada de lo esperado. Cada clínica tenía unas condiciones diferentes y el proceso de trabajo de cada una de ellas era ligeramente distinto, esto dificultaba la recogida de datos por parte del sistema de Google. Si es que podía recogerlos, porque las malas conexiones a Internet también dificultaban la subida de datos.

Los datos recogidos por otra parte tampoco eran los ideales, Google había hecho pruebas en laboratorios con fotografías de alta resolución y tomadas en condiciones casi perfectas. En el caso de las clínicas las fotografías eran de peor calidad, a veces borrosas y con otras imperfecciones que hacían que la IA directamente las descartase y no dise un diagnóstico incluso habiendo claros indicios retinopatía diabética. Explican que el sistema "tiene directrices estrictas con respecto a las imágenes que evaluará... Si una imagen tiene un poco de desenfoque o un área oscura, por ejemplo, el sistema la rechazará, incluso si podría hacer una predicción fuerte".
Como resultado de todo esto el sistema llegó incluso a entorpecer el trabajo de los médicos y los pacientes en sí. Una de las enfermeras comentó que los pacientes no están tan preocupados por la precisión como por el tiempo que pierden por venir al hospital sin obtener una respuesta clara.
¿Es esto un fracaso de la IA de Google? No hay por qué verlo así. Poder agilizar el proceso de diagnóstico tanto es un paso gigantesco que puede ser de mucha ayuda en lugares donde los recursos médicos son escasos. Sin embargo sí que sirve para demostrarnos una vez más que las condiciones perfectas donde se diseña un producto no siempre se ajustan con la realidad. Y esto no es algo nuevo ni de ahora ni de Google.
Vía | Google
Más información | ACM
Imagen | Liam Welch
Ver 26 comentarios
26 comentarios
Usuario desactivado
Titular Xataka: "La IA puesta a prueba en un caso real es una birria, falla todo el rato, no sirve para nada, mata gatitos"
Realidad: "Si las fotos son borrosas, no se pueden enviar, solo salen los zapatos en vez del ojo, a veces no pueden dar un diagnostico correcto".
rafaello76
La IA es un fracaso porque en algunos sitios no tienen conexión a Internet y el personal sanitario no sabe hacer fotografías que no sean borrosas y durante las pruebas sólo se usaron imágenes de alta resolución.
Lo que me preocupa no es la eficacia de la IA, sino la inteligencia de la gente.
filomatico
A ver:
"tiene directrices estrictas con respecto a las imágenes que evaluará... Si una imagen tiene un poco de desenfoque o un área oscura, por ejemplo, el sistema la rechazará, incluso si podría hacer una predicción fuerte"
1. "imágenes que evaluará" --> imágenes a evaluar
2. "Si una imagen tiene un poco de desenfoque" --> si una imagen está desenfocada (añádase si se quiere un adverbio, levemente, por ejemplo)
3. "incluso si podría hacer una predicción fuerte" --> incluso si pudiese hacer una... (esta última es una patada a la gramática que ni en la ESO)
Y no sigo que total... A ver si nos esmeramos un poco en la redacción.
117515
¿porque google ensaya el diagnostico con IA en áreas rurales de Tailandia?
flashmcarthur
Google prueba en Thailandia... Curioso, será porque si la caga, no tendrá demandas.
Usar al 3r mundo de conejillo de indias demuestra que no funciona correctamente desde un principio, lo saben, pero para pedir fondos necesitan demostrar que han hecho ensayos reales. La parte oscura de la tecnología médica.
filomatico
...
Ignarregui
Parece un caso de sobreparametrización (overfitting en inglés), en estadistica se utiliza este término para referirse a modelos que funcionan muy bien con los datos de entrenamiento (las fotografías en alta resolución de google) pero fallan con datos nuevos, es un problema bastante común por lo que puede ser interesante la respuesta que de google a dicho problema.
rafaello76
Cuando nos encontremos que los sindicatos de médicos echen pestes de las aplicaciones de inteligencia artificial para el diagnóstico médico. ¿Cómo sabremos que es evitar que les quiten el trabajo o realmente son razones?
benetdegispert
Creo q es de muy fácil solucion
ilwp
Hacia tiempo que no entraba en Xataka y veo el el nivel de ignorancia y fanatismo por marca X de los comentarios va en aumento.
Me preocupa ver como cada vez hay menos capacidad de análisis del tema imoprtante y mas comentarios de pela de carnaza.
REspecto a la noticia, lo primero es que se ve que aqui hay mucho iluminado que no a estado en entronos reales de trabajo en su vida.
NO ES LA REALIDA LA QUE HA DE ADECUARSE AL SOFTWARE,
ES EL SOFTWARE EL QUE HA DE ADECUARSE A LA REALIDAD.
Los malos creadores de software hacen el programa y luego le dicen a la realidad como ha de trabajar.
Este es el caso de esta IA de Google. Y cuidado no digo que sea mala si no que se ha entrenado en entornos IDILICOS esperando encontrarse eso en la relidad. Y NOM ESO NO FUNCIONA ASI.
EN la realidad los médicos han de trabajar con lo que "HAY" en muchas ocasiones, enfermos que no saben describir o describen mal los síntomas, pruebas echas con poco celo o directamente erróneas, fotografías, escáneres y demás con no toda la resolución o enfoque deseado.
Pero es en esos casos don de la INTELIGENCIA humana y la experiencia y la capacidad de cada medico sale a relucir y se pueden detectar las cosas. Incluso en casos como el que DESCRIBE el articulo positivos muy claros para el medico el IA de google no sabia que hacer.
Lo mas triste es que muchos comentarios han salido a defender a GOOGLE como si fuera su padre. EN vez de pensar que QUIZAS mañana tu vida dependa de una prueba diagnostica y a ver si quieren que la haga esa IA de su marca preferida o el medido experimentado.
Ya lo dije en otro post hace ya tiempo sobre la IA de google y la medicina y los diagnósticos. Esta genial que se investigue y se intente mejorar la salud con TECNOLOIA. pero basta ya de triunfalismos y cifras de marketing para vender una marca y luego al leer las condiciones en las que lo hacen ves que es prácticamente HUMO. como se ha demostrado en este caso.
Mencion especial para el TONTO, lo siento, pero es que no hay otra palabra para definirle mas que TONTO.
Para el que se ríe diciendo que una foto hace peligrar a Tailandia y que no hay pro que demandar a Google si pasa algo.
No es una foto TONTO DE LAS NARICES, es un diagnostico MEDICO del cual puede salir consecuencias grabes para la salud de MUCHAS PERSONAS. Por lo que si. ES DENUNCIABLE y en EEUU puede que hasta alguno terminara en la cárcel.
Por favor ve a que te hagan un TAC del cerebro a ver si encuentran algo mas que aire.