Miles de personas en todo el mundo se han sometido alguna vez a alguna prueba médica (desde resonancias magnéticas a test análisis genéticos, por ejemplo) en el marco de un estudio clínico. Los que participan en esta clase de investigaciones lo hacen porque cuentan con que su privacidad está a salvo, pues no se conservan datos que permitan identificar a los sujetos que participan en las mismas.
Por desgracia, el límite que establecía hasta ahora qué clase de datos pueden considerarse 'seguros' en ese sentido puede haber quedado obsoleto por culpa de los avances en el campo del big data y de la inteligencia artificial.
Eso afirma al menos un equipo de investigadores de la Clínica Mayo, que acaban de publicar en la 'New England Journal of Medicine' los resultados de un experimento con el que demuestran que es posible reconstruir el rostro de una persona gracias a los datos recogidos en una resonancia magnética de la cabeza, permitiendo después someter la reconstrucción a un software de reconocimiento facial basado en Azure. Con éxito.
Los investigadores reclutaron a 84 voluntarios, de edades comprendidas entre los 34 y los 89 años, que recientemente se hubieran sometido a alguna resonancia magnética durante un estudio clínico. Se fotografió a los voluntarios desde cinco ángulos distintos, y se procedió a intentar reconstruir sus rostros a partir de los datos disponibles: la resonancia magnética permite captar elementos como el contorno de la piel, la grasa intramuscular y la médula ósea del cráneo, pero no otros muy útiles, como el hueso o el cabello.
En 70 de los 84 casos, el algoritmo usado permitió vincular directamente el rostro reconstruido a las fotografías de su propietario, y en otros 10 el software propuso el rostro correcto entre las 5 primeras opciones. En total, la tecnología sólo fue incapaz de identificar 4 de los 84 rostros.
¿Dónde está el problema?
El gran problema de esta vía imprevista de 'desanonimización' de datos médicos reside en que abre la puerta a que éstos sean usados con fines comerciales o, peor, delictivos (como usarlos con fines de chantaje). Ahora mismo, la única protección de la privacidad de los sujetos de pruebas clínicas que requieran resonancias magnéticas de la cabeza, reside en los que los investigadores que accedan a los datos de los estudios se comprometan a no tratar de identificar a los participantes.
Según explicó al WSJ Eliot Siegel, profesor de radiología en la Escuela de Medicina de la Universidad de Maryland, "el riesgo para el paciente medio es [ahora] muy pequeño... pero a medida que pase el tiempo, el riesgo aumentará y es muy importante tener esto en cuenta mientras seguimos creando datasets cada vez mayores destinados a impulsar el machine learning".
Vía | Wall Street Journal
Imagen | Mayo Clinic / New England Journal of Medicine
Ver 7 comentarios