Seguramente recordéis ese cartel publicitario. Fue parte de una campaña que destacaba cómo Apple se preocupaba por nuestra privacidad. "Lo que pasa en tu iPhone, se queda en tu iPhone", decían. Ese argumento se unía a otros como los de la privacidad diferencial, pero los últimos movimientos de esta empresa han hecho que muchos se preocupen.
Se trata de sus nuevas iniciativas para (teóricamente) proteger la seguridad de los niños y limitar la difusión de la pornografía infantil. Para ello Apple básicamente escanea los iPhone y alerta de la presencia de imágenes sospechosas. El movimiento tiene sentido para algunos, pero cruza una peligrosa línea para otros.
Tres formas de vigilar nuestros móviles
El anuncio de Apple se produce en un momento singular en el que el escrutinio de la compañía por su férreo control de la App Store está en tela de juicio (literalmente), pero esta vez afecta a un área especialmente delicada.
Apple, que se había autoproclamado como gran defensora de nuestra privacidad (frente a las Google y Facebook del mundo), plantea ahora medidas que para muchos hacen que se caiga esa filosofía.
En el documento de Apple hay una mención frecuente del término CSAM (por 'Child Sexual Abuse Material', es decir, pornografía infantil). Esas medidas son tres:
- Messages: la aplicación de mensajería "usará aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple".
- iCloud Photos: "en iOS y iPadOS se usarán nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de CSAM online, mientras se protege la privacidad del usuario. La detección CSAM ayudará a Apple a proporcionar información valiosa a las agencias de seguridad en cuanto a colecciones de imágenes CSAM en iCloud Photos".
- Siri y Search: estas funciones "proporcionarán a padres e hijos información adicional y les ayudarán si se encuentran con soluciones inseguras. Siri y Search también intervendrán cuando los usuarios traten de buscar temas relacionados con CSAM".
Al final del documento se ofrece información técnica sobre cada uno de los componentes que permiten poner en marcha esas iniciativas, pero ciertamente todas estas iniciativas han avivado la polémica sobre el delicado equilibrio entre privacidad y seguridad.
Como explicaba John Gruber en Daring Fireball, es importante conocer el alcance de estas medidas. La tercera de esas medidas, la que afecta a Siri y a las búsquedas, parece ciertamente fácil de entender y no es especialmente controvertida porque no hay un escaneo activo del contenido de nuestro teléfono móvil. Veamos qué pasa con las dos primeras medidas, que son algo más comprometedoras.
Messages: todo queda en familia (o eso dice Apple)
Eso cambia con las dos primeras medidas de esta iniciativa, pero la puesta en marcha de ese escaneo es limitado. Por ejemplo, en el caso de la primera medida, la referente a la aplicación Messages, esa monitorización de mensajes solo se produce en el caso de que el móvil lo usen niños que forman parte de una cuenta familiar de iCloud.
Eso significa que nada cambia para usuarios adultos de los iPhone y de iCloud, y de hecho si eres padre de familia y tus hijos tienen un iPhone o un iPad susceptible de ser "escaneado", Apple solo realizará ese proceso si tú lo activas (es una característica "opt-in" explícita): por defecto está desactivado.
En el caso de que el padre la active para los iPhone/iPad de sus hijos, si un niño recibe o envía (y quiere visualizar) una imagen que activa una advertencia, la notificación se envía desde el dispositivo del hijo al de los padres. Ni Apple ni las agencias de seguridad son avisadas de ese evento y todo "queda en familia", por decirlo de algún modo.
La medida afecta además a la aplicación Messages, pero no al servicio iMessage: todos los mensajes siguen estando cifrados de extremo a extremo, y la detección de imágenes se produce siempre en local, en el dispositivo (nunca "en la nube", es decir, nunca en los servidores de Apple, que teóricamente no se entera de nada) antes de enviar la imagen o después de recibirla.
Este proceso sí que realiza análisis de contenido para tratar de identificar imágenes sexuales explícitas. Si las detecta, la imagen se desenfocará automáticamente y se enviará esa advertencia al niño e incluso se podrá activar el aviso para los padres si a pesar de todo el niño ve la imagen.
iCloud Photos: Apple escanea hashes, no imágenes
La segunda parte de esta iniciativa es la que se refiere a iCloud Photos y la detección de imágenes de pornografía infantil (CSAM). Es importante destacar que "solo" se aplica a iCloud Photos, así que si no somos usuarios de esa opción, no nos afectará.
El problema, claro, es que la inmensa mayoría de usuarios de iPhone y iPad utilizan iCloud Photos como sistema de copia de seguridad que les permite guardar su fototeca en la nube y tenerla siempre disponible mientras liberan espacio en sus dispositivos.
Esta medida, a diferencia de la anterior, no es 'opt in', y está activada por defecto. Si usas iCloud Photos, las imágenes que tengas en tu biblioteca en la nube estarán sujetos a ese proceso de 'fingerprinting' un término con difícil traducción al español que equivaldría un "proceso de identificación mediante características especiales" (como la huella dactilar, que sería un caso específico).
Como explica Gruber, en este caso el proceso de identificación no equivale a un análisis del contenido. Apple no sabe lo que hay en la foto, y lo que básicamente ocurre es que Apple compara una imagen en tu dispositivo con otra que sabe que sí es de pornografía infantil. ¿Cómo lo sabe? Porque esa imagen está en una base de datos oficial que está gestionada por un organismo oficial de EE.UU. llamado NCMEC.
Apple no ve ni la imagen original ni la de la base de datos. Lo que ve son números. Cada imagen tiene una especie de huella dactilar (de ahí lo del 'fingerprinting') y esa se compara con la "huella dactilar" de la imagen que está en iCloud Photos. Si son iguales, se activa la alerta, porque se detecta que esa imagen es efectivamente de pornografía infantil.
Esta parte de la iniciativa sí que puede activar una alerta hacia Apple: no se especifica cuántas imágenes de pornografía infantil activan esa alerta que avisa a Apple. Según los responsables del sistema, el margen de error es ínfimo ("una entre un trillón") y aún así alguien en Apple examinará esa alerta (que es en esencia una versión de baja resolución de la imagen) antes de avisar o no a las autoridades.
Críticas por doquier
Las críticas han sido numerosas y han venido desde diferentes frentes. Entre quienes ven el movimiento con preocupación están los que afirman que Apple quiere normalizar la idea de que una empresa escanee el contenido de nuestro teléfono, así que empiezan haciéndolo con una idea medio razonable.
La Electronic Frontier Foundation (EFF) tampoco ve con buenos ojos esa iniciativa de Apple, y afirma que la empresa "está abriendo la puerta a abusos más amplios" de nuestra privacidad. De hecho, aseguran, "es imposible crear un sistema de escaneo local que pueda ser usado únicamente para imágenes explícitas enviadas o recibidas por niños".
De hecho a Apple solo le basta ampliar los límites de su algoritmo de aprendizaje profundo "para buscar otros tipos de contenido o ajustar los parámetros de configuración para escanear no solo las cuentas de niños, sino las de cualquiera. Eso no es solo un terreno resbaladizo: es un sistema completamente construido que solo espera la presión externa para hacer el más mínimo cambio".
Es lo que afirmaba por ejemplo Edward Snowden, que ha criticado de forma patente esta iniciativa en su cuenta de Twitter en los últimos días mientras compartía mensajes y análisis de otros expertos en privacidad.
Lo cierto es que la iniciativa de Apple también es sospechosa por cosas como lo que ocurrió en 2018, cuando la empresa abandonó sus planes para ofrecer cifrado de extremo a extremo en los backups de iCloud. Allí los datos no están cifrados, algo que permitiría a una agencia de seguridad como el FBI solicitar a Apple acceso a esas copias de seguridad y fotos si forman parte de una investigación.
Otro de los peligros que se perfilan para este sistema está en su uso en otros países. En Estados Unidos se trabaja con organismos como el NCMEC, pero ¿qué ocurre si un país como China exige que serán ellos los que proporcionarán la base de datos de imágenes de pornografía infantil, y esa base de datos incluye otras imágenes, por ejemplo de disidentes políticos?.
Es lo que preguntaban en The New York Times, y allí Erik Neuenschwander, Chief Privacy Engineer en Apple, afirmaba que la empresa básicamente se negará a ofrecer tal opción. La empresa ha publicado además un nuevo documento tratando esta cuestión, pero nos tememos que eso no es fácil de creer, sobre todo cuando Apple (como otras muchas empresas) se ha plegado de forma clara a las exigencias del gobierno chino en otras ocasiones.
Otras empresas rivales han aprovechado para atacar a Apple por este tipo de medidas, y es curioso cómo una de las que lo ha hecho es WhatsApp. Su máximo responsable actual, Will Cathcart, ha dejado claro que estaba "preocupado" y que WhatsApp no adoptaría este sistema.
Otro de los que ha aprovechado la coyuntura es Tim Sweeney, CEO de Epic Games. La empresa se encuentra en el centro de la disputa legal con Apple y su App Store, y Sweeney ha aprovechado para criticar una medida que según él no es más que "un spyware gubernamental".
Matthew Green, profesor de criptografía en la Universidad Johns Hopkins, afirmaba que Apple se está acercando peligrosamente a convertirse en una herramienta para la vigilancia gubernamental, y se podría convertir en una herramienta terrible en manos de un gobierno autoritario (como el de China).
El autoproclamado adalid de la privacidad quizás haya ido demasiado lejos esta vez.
Ver todos los comentarios en https://www.xataka.com
VER 97 Comentarios