Seguramente recordéis ese cartel publicitario. Fue parte de una campaña que destacaba cómo Apple se preocupaba por nuestra privacidad. "Lo que pasa en tu iPhone, se queda en tu iPhone", decían. Ese argumento se unía a otros como los de la privacidad diferencial, pero los últimos movimientos de esta empresa han hecho que muchos se preocupen.
Se trata de sus nuevas iniciativas para (teóricamente) proteger la seguridad de los niños y limitar la difusión de la pornografía infantil. Para ello Apple básicamente escanea los iPhone y alerta de la presencia de imágenes sospechosas. El movimiento tiene sentido para algunos, pero cruza una peligrosa línea para otros.
Tres formas de vigilar nuestros móviles
El anuncio de Apple se produce en un momento singular en el que el escrutinio de la compañía por su férreo control de la App Store está en tela de juicio (literalmente), pero esta vez afecta a un área especialmente delicada.

Apple, que se había autoproclamado como gran defensora de nuestra privacidad (frente a las Google y Facebook del mundo), plantea ahora medidas que para muchos hacen que se caiga esa filosofía.
En el documento de Apple hay una mención frecuente del término CSAM (por 'Child Sexual Abuse Material', es decir, pornografía infantil). Esas medidas son tres:
- Messages: la aplicación de mensajería "usará aprendizaje automático para avisar de contenido sensible mientras los mensajes de las comunicaciones privadas siguen siendo ilegibles por Apple".
- iCloud Photos: "en iOS y iPadOS se usarán nuevas aplicaciones de la criptografía para ayudar a limitar la difusión de CSAM online, mientras se protege la privacidad del usuario. La detección CSAM ayudará a Apple a proporcionar información valiosa a las agencias de seguridad en cuanto a colecciones de imágenes CSAM en iCloud Photos".
- Siri y Search: estas funciones "proporcionarán a padres e hijos información adicional y les ayudarán si se encuentran con soluciones inseguras. Siri y Search también intervendrán cuando los usuarios traten de buscar temas relacionados con CSAM".
Al final del documento se ofrece información técnica sobre cada uno de los componentes que permiten poner en marcha esas iniciativas, pero ciertamente todas estas iniciativas han avivado la polémica sobre el delicado equilibrio entre privacidad y seguridad.
Como explicaba John Gruber en Daring Fireball, es importante conocer el alcance de estas medidas. La tercera de esas medidas, la que afecta a Siri y a las búsquedas, parece ciertamente fácil de entender y no es especialmente controvertida porque no hay un escaneo activo del contenido de nuestro teléfono móvil. Veamos qué pasa con las dos primeras medidas, que son algo más comprometedoras.
Messages: todo queda en familia (o eso dice Apple)
Eso cambia con las dos primeras medidas de esta iniciativa, pero la puesta en marcha de ese escaneo es limitado. Por ejemplo, en el caso de la primera medida, la referente a la aplicación Messages, esa monitorización de mensajes solo se produce en el caso de que el móvil lo usen niños que forman parte de una cuenta familiar de iCloud.

Eso significa que nada cambia para usuarios adultos de los iPhone y de iCloud, y de hecho si eres padre de familia y tus hijos tienen un iPhone o un iPad susceptible de ser "escaneado", Apple solo realizará ese proceso si tú lo activas (es una característica "opt-in" explícita): por defecto está desactivado.
En el caso de que el padre la active para los iPhone/iPad de sus hijos, si un niño recibe o envía (y quiere visualizar) una imagen que activa una advertencia, la notificación se envía desde el dispositivo del hijo al de los padres. Ni Apple ni las agencias de seguridad son avisadas de ese evento y todo "queda en familia", por decirlo de algún modo.
La medida afecta además a la aplicación Messages, pero no al servicio iMessage: todos los mensajes siguen estando cifrados de extremo a extremo, y la detección de imágenes se produce siempre en local, en el dispositivo (nunca "en la nube", es decir, nunca en los servidores de Apple, que teóricamente no se entera de nada) antes de enviar la imagen o después de recibirla.
Este proceso sí que realiza análisis de contenido para tratar de identificar imágenes sexuales explícitas. Si las detecta, la imagen se desenfocará automáticamente y se enviará esa advertencia al niño e incluso se podrá activar el aviso para los padres si a pesar de todo el niño ve la imagen.
iCloud Photos: Apple escanea hashes, no imágenes
La segunda parte de esta iniciativa es la que se refiere a iCloud Photos y la detección de imágenes de pornografía infantil (CSAM). Es importante destacar que "solo" se aplica a iCloud Photos, así que si no somos usuarios de esa opción, no nos afectará.

El problema, claro, es que la inmensa mayoría de usuarios de iPhone y iPad utilizan iCloud Photos como sistema de copia de seguridad que les permite guardar su fototeca en la nube y tenerla siempre disponible mientras liberan espacio en sus dispositivos.
Esta medida, a diferencia de la anterior, no es 'opt in', y está activada por defecto. Si usas iCloud Photos, las imágenes que tengas en tu biblioteca en la nube estarán sujetos a ese proceso de 'fingerprinting' un término con difícil traducción al español que equivaldría un "proceso de identificación mediante características especiales" (como la huella dactilar, que sería un caso específico).
Como explica Gruber, en este caso el proceso de identificación no equivale a un análisis del contenido. Apple no sabe lo que hay en la foto, y lo que básicamente ocurre es que Apple compara una imagen en tu dispositivo con otra que sabe que sí es de pornografía infantil. ¿Cómo lo sabe? Porque esa imagen está en una base de datos oficial que está gestionada por un organismo oficial de EE.UU. llamado NCMEC.
Apple no ve ni la imagen original ni la de la base de datos. Lo que ve son números. Cada imagen tiene una especie de huella dactilar (de ahí lo del 'fingerprinting') y esa se compara con la "huella dactilar" de la imagen que está en iCloud Photos. Si son iguales, se activa la alerta, porque se detecta que esa imagen es efectivamente de pornografía infantil.
Esta parte de la iniciativa sí que puede activar una alerta hacia Apple: no se especifica cuántas imágenes de pornografía infantil activan esa alerta que avisa a Apple. Según los responsables del sistema, el margen de error es ínfimo ("una entre un trillón") y aún así alguien en Apple examinará esa alerta (que es en esencia una versión de baja resolución de la imagen) antes de avisar o no a las autoridades.
Críticas por doquier
Las críticas han sido numerosas y han venido desde diferentes frentes. Entre quienes ven el movimiento con preocupación están los que afirman que Apple quiere normalizar la idea de que una empresa escanee el contenido de nuestro teléfono, así que empiezan haciéndolo con una idea medio razonable.

La Electronic Frontier Foundation (EFF) tampoco ve con buenos ojos esa iniciativa de Apple, y afirma que la empresa "está abriendo la puerta a abusos más amplios" de nuestra privacidad. De hecho, aseguran, "es imposible crear un sistema de escaneo local que pueda ser usado únicamente para imágenes explícitas enviadas o recibidas por niños".
De hecho a Apple solo le basta ampliar los límites de su algoritmo de aprendizaje profundo "para buscar otros tipos de contenido o ajustar los parámetros de configuración para escanear no solo las cuentas de niños, sino las de cualquiera. Eso no es solo un terreno resbaladizo: es un sistema completamente construido que solo espera la presión externa para hacer el más mínimo cambio".
No matter how well-intentioned, @Apple is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.
— Edward Snowden (@Snowden) August 6, 2021
They turned a trillion dollars of devices into iNarcs—*without asking.* https://t.co/wIMWijIjJk
Es lo que afirmaba por ejemplo Edward Snowden, que ha criticado de forma patente esta iniciativa en su cuenta de Twitter en los últimos días mientras compartía mensajes y análisis de otros expertos en privacidad.
Lo cierto es que la iniciativa de Apple también es sospechosa por cosas como lo que ocurrió en 2018, cuando la empresa abandonó sus planes para ofrecer cifrado de extremo a extremo en los backups de iCloud. Allí los datos no están cifrados, algo que permitiría a una agencia de seguridad como el FBI solicitar a Apple acceso a esas copias de seguridad y fotos si forman parte de una investigación.
Otro de los peligros que se perfilan para este sistema está en su uso en otros países. En Estados Unidos se trabaja con organismos como el NCMEC, pero ¿qué ocurre si un país como China exige que serán ellos los que proporcionarán la base de datos de imágenes de pornografía infantil, y esa base de datos incluye otras imágenes, por ejemplo de disidentes políticos?.
Es lo que preguntaban en The New York Times, y allí Erik Neuenschwander, Chief Privacy Engineer en Apple, afirmaba que la empresa básicamente se negará a ofrecer tal opción. La empresa ha publicado además un nuevo documento tratando esta cuestión, pero nos tememos que eso no es fácil de creer, sobre todo cuando Apple (como otras muchas empresas) se ha plegado de forma clara a las exigencias del gobierno chino en otras ocasiones.
I read the information Apple put out yesterday and I'm concerned. I think this is the wrong approach and a setback for people's privacy all over the world.
— Will Cathcart (@wcathcart) August 6, 2021
People have asked if we'll adopt this system for WhatsApp. The answer is no.
Otras empresas rivales han aprovechado para atacar a Apple por este tipo de medidas, y es curioso cómo una de las que lo ha hecho es WhatsApp. Su máximo responsable actual, Will Cathcart, ha dejado claro que estaba "preocupado" y que WhatsApp no adoptaría este sistema.
I've tried hard to see this from Apple's point of view. But inescapably, this is government spyware installed by Apple based on a presumption of guilt. Though Apple wrote the code, its function is to scan personal data and report it to government.https://t.co/OrkfOSjvS1
— Tim Sweeney (@TimSweeneyEpic) August 7, 2021
Otro de los que ha aprovechado la coyuntura es Tim Sweeney, CEO de Epic Games. La empresa se encuentra en el centro de la disputa legal con Apple y su App Store, y Sweeney ha aprovechado para criticar una medida que según él no es más que "un spyware gubernamental".
Initially I understand this will be used to perform client side scanning for cloud-stored photos. Eventually it could be a key ingredient in adding surveillance to encrypted messaging systems.
— Matthew Green is on BlueSky (@matthew_d_green) August 5, 2021
Matthew Green, profesor de criptografía en la Universidad Johns Hopkins, afirmaba que Apple se está acercando peligrosamente a convertirse en una herramienta para la vigilancia gubernamental, y se podría convertir en una herramienta terrible en manos de un gobierno autoritario (como el de China).
El autoproclamado adalid de la privacidad quizás haya ido demasiado lejos esta vez.
Ver 88 comentarios
88 comentarios
Usuario desactivado
Primero escanearán buscando pornografía infantil. Que bien, persiguen la pornografía infantil. Nada que temer.
Después buscarán contenido que apoye el nazismo. Los nazis eran muy malos, que bien que nos protejan de esas ideas. Aunque nadie lo haya pedido...
Luego tocará persegu... buscar contenido que apoye a los comunistas. Malditos comunistas, casi peores que los nazis. Que bien que los persigan.
También habría que acabar con los mensajes que discriminan y acosan a los gays y lesbianas y transexuales y generos no binarios no asignados o no se qué. Bien, Tim Cook es gay, sabe lo que hace.
Sabes que te digo? Hay gente que vota a partidos de derechas. A esos también habría revisarles el smartphone. No podemos tolerar que difundan esas ideas que atentan contra los trabajadores.
Espera, espera, también hay gente que no quiere cuotas de género en los puestos de trabajo. P***s machistas asesinos, revisemos sus móviles por si acaso. Hay que acabar con esa lacra.
Los blancos. Los blancos son el problema. La gente blanca se ha dedicado a lo largo de la historia a colonizar pueblos indígenas que comulgaban con la tierra y a esclavizar a esas gentes pacíficas que salen en "Bailando con lobos" o "La misión". Quizás toda Europa y parte de América deba ser controlada y monitorizada. Por si acaso.
Allahu Akbar. Mahoma es mi profeta, el me guía, nada me falta. Los infieles deben ser controlados, sus teléfonos intervenidos. El sunismo es la verdad, los chiitas son enemigos.
-----------------
Sisisi... lo que queráis. Pero de alguna forma se empieza.
Usuario desactivado
Todos empiezan con muy buenos ideales: quién no quiere que se luche contra la pederastia y la pornografía infantil.
Después ampliarán a otras cosas como el narcotráfico y el blanqueo de capitales. Quién se va a negar a eso.
El problema vendrá cuando, ya puestos, incluyan otras actividades ilegales como guardar películas (aunque la haya descargado como ayuda a copia privada), música (idem de lo mismo) o cualquier cosa que alguien decida que es una actividad delictiva en EEUU.
En cualquier caso una excusa como cualquier otra para abrir esa puerta (recuerden las disputas del FBI y la NSA con Apple y Trump en su día). Lo que yo veo cuando detienen a unos pederastas es que incautan unos ordenadores y unos discos duros, nunca unos users y pass con documentos en la nube.
ukos
Esa tarea no puede ser cosa de Apple, para eso están las autoridades.
Apple que se dedique a fabricar productos y deje el resto a quien le incumba.
Usuario desactivado
“Cuando los nazis vinieron a buscar a los comunistas,
guardé silencio,
porque yo no era comunista,
Cuando encarcelaron a los socialdemócratas,
guardé silencio,
porque yo no era socialdemócrata
Cuando vinieron a buscar a los sindicalistas,
no protesté,
porque yo no era sindicalista,
Cuando vinieron a buscar a los judíos,
no pronuncié palabra,
porque yo no era judío,
Cuando finalmente vinieron a buscarme a mi,
no había nadie más que pudiera protestar.”
Martin Niemöller, 1946.
salomon100
Apple no cambien de Lema, que no te ha ido nada mal: “La privacidad por encima de todo”
Como dice bien claro Snodwen: “Que no os engañen, si hoy pueden buscar pornografia infantil, mañana pueden buscar lo que les dé la gana”
Y es que hay líneas que no se deben de cruzar. Porque nunca hay una puerta trasera solo abierta para los buenos.
Lo peor es que siempre lo hacen igual.Metiéndote miedo y justificándolo con causas que parecen en principio totalmente buenas y justificable. Para restringirte tus derechos más fundamentales !!
Soy muy de Apple (aunque para nada Fanny ni Hater, eso son gente que no saben pensar por si mismo). Pero espero que este movimiento le cueste muchos millones de dólares a Apple para que corrijan el rumbo. Es la única manera que las empresas entran en razón, por la pasta !! Lo demás le da a todas igual !!
Y como digo Apple siguiendo tu maxima de “lo que pasa en el iPhone se queda en el iPhone” … no te ha ido nada mal, pues eso, si va bien NO lo toques !!
togepix
Si es que lo mires por donde lo mires , qué necesidad hay de meterse en este jardín …
Apple no es la policía . La policía es la que se tiene que dedicar a esto .
Y si les doy la razón a Apple ¿ Otros delitos como tráfico de armas , de drogas o de personas no son tan importantes ?
Es que esta política no tiene ni pies ni cabeza .
Y mira que soy usuario de todos sus productos , pero cada vez son más CÍNICOS:
- Vendemos privacidad , pero vamos a mirar tus fotos en busca de delitos
- Vendemos ecología , pero en nuestros productos tenemos hasta 7 cargadores diferentes que no son compatibles en sus propios productos ( Lighting, USBC, Magsafe del Apple Watch , Magsafe iPhone , Magsafe del iMac , cargadores con entrada A y cargadores con entrada C).
Y esto es todo política del señor Cook.
marcussmith
""Apple se está acercando peligrosamente a convertirse en una herramienta para la vigilancia gubernamental, y se podría convertir en una herramienta terrible en manos de un gobierno autoritario (como el de China)""
Es una herramienta terrible ya en las manos del gobierno de los EEUU, que lo usaría con todo propósito, tener ventajas y espiar teléfonos de dueños de empresas de otros países, identificar a los que tengan ideas y pensamientos de izquierda o de otro tipo contrario a los intereses de los eeuu.
p2dzca
Como ya dije la semana pasada (y han dicho mucho expertos y se menciona en este artículo), abre la posibilidad de vigilancia indiscriminada a la orden de cualquier Gobierno que presione a Apple (como sucedió con Apple y China por el control de iCloud).
Nos rasgamos las vestiduras, pero hace muchos años que llevan construyendo los cimientos para que esto ocurra, para que la informática que nos venden no sea nuestra, sino que esté bajo el control de las grandes empresas y, simplemente, nos la cedan. Y tragamos como corderitos, y, además, muchas personas alardean de pertenecer al rebaño.
Apple lanzó el iPhone y revolucionó la telefonía personal, pero además estableció algo mucho más novedoso y acorde con su filosofía de controlarlo todo y a todos sus clientes: el teléfono necesitaba de una cuenta de Apple, su uso ya no era anónimo. Previamente, cualquiera podía instalar y utilizar su teléfono como quisiera. Además, crearon la gallina de los huevos de oro y del control: Apple Store. Y todo desarrollador debía estar identificado, controlado y debía pasar por caja.
Lejos de ser algo particular de Apple, los demás vieron las ventajas y lo copiaron. El resultado es que hoy en día, salvo las distribuciones de Linux, no existen opciones de informática personal y anónima. Los usuarios de Mac y de iPhone necesitan una cuenta de Apple, los usuarios de Chromebook, Android y algunos servicios de Google necesitan una cuenta de Google y los usuarios de Windows se habrán enterado ya de que la próxima versión de Windows, la 11, obliga a tener una cuenta de Microsoft. Todas estas empresas nos quieren encadenados a sus productos y servicios, nos espían (queda más bonito decir que hacen uso de la telemetría) y nos tienen identificados en nuestra vida digital. Nos dicen que es para dar un mejor servicio, para mejorar la experiencia de usuario, etc., pero lo cierto es que otra informática es posible, pero han elegido la que les beneficia a ellos y no la que nos beneficio a los usuarios, y tragamos como corderitos. Y de paso, han establecido las bases para tenernos controlados. A partir de aquí, de la situación a la que hemos llegado, (como se está haciendo en algunos países) el resto hasta perder del todo lo privacidad es pan comido y lo justificarán con un cargamento de buenas razones.
¡Qué premonitoria fue la película "Matrix"! Solo se equivocó en una cosa: estamos conectados de formar inconsciente y nos explotan, pero no quieren nuestra electricidad, quieren nuestros datos y controlarnos.
¡Espabilad de una vez y tomad la pastilla roja!
Zero
Veo una confusión, lógica pero peligrosa, por parte de casi toda la prensa en este tema del CSAM en cuanto a las hashes.
No son hashes criptográficas como las que usamos para comparar archivos si no hashes perceptivas, es una red neuronal, denominada NeuralHash, que busca patrones específicos en fotos similares y asigna hashes de 10010101010 según estos patrones, que sería más adecuado si los denomináramos fingerprints realmente.
Por lo que es bastante más peligroso que una simple hash, el sistema no funciona así y se está simplificando sin mala intención, pero hace que los que sí saben lo que es un hash criptográfica digan: "oh, entonces no es para tanto". Sí, sí lo es, no es un hash criptográfica si no perceptiva y usa una red neuronal —externa a tu dispositivo, al contrario de las que analizan tus fotos en tu galería— para encontrar patrones en fotos similares, que bien puede equivocarse perfectamente como cualquier otra red neuronal al encontrar fotos de tu novia/o y marcarlas para la desencriptación y revisión por parte del equipo de apple, así como adaptarse para otros propósitos.
Aquí está la especificación del CSAM: https://www.apple.com/child-safety/pdf/CSAM_Detection_Technical_Summary.pdf
JuanAnt
¿En serio que ha alguien le preocupa?
Espiados ya estamos.
Yo prefiero que hagan eso a que cada vez que cito algo, por escrito o hablando, después me salga publicidad o información que tiene que ver con ese algo durante días. Y no tengo nada que esconder.
Luego hay quien compra un altavoz "inteligente" a propósito.
xdarkpetrusx
Edward Snowden, el supuesto defensor de la privacidad, se pone a criticar temas de privacidad mientras usa Twitter y comparte un montón de fotografías privadas de lo que hace en navidad y con quien está.
Su frase célebre: "No quiero vivir en una sociedad que hace este tipo de cosas… No quiero vivir en un mundo donde se registra todo lo que hago y digo. Es algo que no estoy dispuesto a apoyar ni admitir."
Y luego va y comparte información suya a punta pala, fotos....
Will Cathcart, máximo responsable actual de whatsapp. Una empresa que vulnera SISTEMATICAMENTE los derechos de privacidad y que hace escasos meses tuvo una polémica MUNDIAL hasta el punto de que los gobiernos de Europa desaconsejan encarecidamente su uso y está prohibido usar whatsapp en el gobierno europeo porque vulneran la privacidad.
Tim Sweeney, CEO de Epic Games o mejor conocido como el cerdo que se quiere forrar usando los servicios de todo el mundo sin pagar un duro. Que es prácticamente como querer entrar a un gimnasio gratis sin pagar la cuota de socio.
Will Cathcart y Tim Sweeney son los máximos responsables a los cuales Apple les ha parado los pies. A WhatsApp por la parte de Facebook con los cambios de privacidad, ya que ahora Facebook está perdiendo millones porque antes podían violarte el móvil como les diera la gana y ahora no pueden.
Epic porque no quieren seguir las normas de la Apple Store y no quieren pagar comisiones ni llegar a ningún tipo de acuerdo, quieren vender en la AppleStore, gratis.
Si, hay que hacer caso a las críticas de esta gente que saca partido criticando a Apple para su propio beneficio.
Y Edward Snowden, el "DEFENSOR" de la privacidad, que ha pedido asilo en mil paises y todos se lo deniegan (¿Por qué será?) y mientras, gracias a la polémica, se está forrando.
Apple es la empresa que más respeta a sus usuarios. Google analiza desde siempre TODO el móvil. Apps instaladas, fotos, vídeos, notas de voz, texto.... TODO.
Xiaomi envía toda la información del teléfono a China. Samsung también analiza todo sin permiso.
Europa ya controla el tema del CSAM desde hace años porque tiene acuerdos con las telecos.
Buscad PhotoDNA y mirad lo que hacen Facebook, Microsoft, Twitter, Instagram....
No miran el hash, directamente analizan la foto ENTERA y con eso saben exactamente si eres tu o no eres tú.
Lo que utilizaba Facebook SIN PERMISO de los usuarios para etiquetar automáticamente las fotos.....
Pero no, vamos a quejarnos de Apple porque es la única que lo anuncia y las demás lo hacen mil millones de veces peor sin anunciar nada y vamos a usar sus productos y servicios.
ha827s
Eso es una herramienta perfecta para cualquier gobierno que le moleste algo, ya veréis qué poco tarda la NSA en usarla sin que nadie se de cuenta. Es increíble que Apple sea tan sinvergüenza de decir que defiende la privacidad.
chandlerbing
Se bajaron los pantalones antes el Gobierno de USA.
Todos tienen un precio y Apple no es la excepción.
Pero bueno, los que si sabemos cómo son las empresas en realidad no nos sorprende.
Como los falsos apoyos a los grupos de moda, sólo son un número para las empresas.
petote
Alguien me puede explicar porqué narices necesitan escanear dispositivos que pertenezcan a menores de edad?
Si lo que están buscando es pornografía infantil deberían buscar en los dispositivos de los adultos.
rexd94
Lo dicho, este sistema de Apple es manejado por personas y basta una orden para que metan mano donde no les corresponde. De seguir, esta será la típica bola de nieve en caída.
hkakashi
A mí lo que me hace gracia es que un algoritmo se va a encargar de buscar pornografía infantil en los iPhone pero Apple, según dicen, no tiene acceso a ese contenido (no lo sé Rick...). Luego está en que varias veces Apple se ha negado a dejar puertas traseras para que el FBI o el gobierno de EEUU pueda acceder a los dispositivos de posibles terroristas/criminales. Entonces ésto me lleva a una conclusión (que podría estar equivocado, pero lo pienso así): Apple no tiene acceso a las fotos y no va a ceder la posibilidad de que el FBI o el gobierno acceda a un iPhone por lo que entonces supongo que el algoritmo emitirá la "denuncia" a Apple y estos se tendrán que personar como acusación particular contra alguien que tenga fotos de niños desnudos.
Creo que ésto además va a abrir la caja de Pandora de la protección de datos y de ahí a espiar abiertamente tu vida va a ser algo que van a empezar a hacer poco a poco para que al final a la gente le parezca algo normal.
bluenote
1.- Ay, qué perniciosos son los productos chinos, que nos espían...
2.- Cuando no pagas por un producto, el producto eres tú...
Solución a 1: Todos nos espían.
Solución a 2: Los Apple los pagas (y mucho) y tú sigues siendo el producto.
Ahora sustituyamos la palabra Apple por Google, Microsoft, Huawei, Xiaomi... En serio, da lo mismo. La tecnología es la heroína de los años 80, y nos gusta.
Victorsanchez
No entiendo ha Apple, lo que consigue por un lado lo destroza por otro.
De estas cosas de la pornografía infantil no tenemos culpa los usuarios y solo pensar que mis fotos las ve cualquiera ya te tira para atrás.
No tiene sentido vender la moto de que son la compañía que más protege tu privacidad y por otro lado manda a paseo la privacidad .
emmanuelchristian
Hechar un vistazo al comercial de apple para presentar el primer
Macintosh
Cualquier parecido con como está deviniendo el mundo, en especial occidente es "pura coincidencia"
gonzaavellaneda
Los pedófilos preocupados porque ahora no pueden compartir imágenes de nenes en bolas o siendo violados.
Los narcos preocupados porque no van a poder vender drogas.
Los nazis preocupados porque no van a poder mandarse fotos de como golpean homosexuales, judíos o aquel a quien hayan visto suficientemente debilucho como para pegarle entre 20.
Los paranoicos que creen que el gobierno los persigue porque "piensan" diferente.
Fijate quienes son los que están asustados con esto. No seas como ellos.
Ahora si vos subís fotos comprometidas a una fuente de almacenamiento que no controlas vos, no podes estar nunca seguro que sean verdaderamente privadas. Y si lo pensás, seguís siendo vos el que tiene el problema.
pedrosalguera
Es decir, que se sigue cumpliendo lo de que “ lo que pasa en tu iPhone se queda en tu iPhone” y se ha hecho un montón de ruido nada más