La fotografías subidas a iCloud desde el iPhone van a ser verificadas. Apple ha anunciado un nuevo sistema que permite buscar de forma automática contenido de abuso sexual a menores y similares. Mediante ello detecta este tipo de contenido prometiendo al mismo tiempo seguir respetando la privacidad del usuario.
El nuevo sistema está pensado para ayudar a las autoridades a hacer cumplir la ley y proteger a los menores. En principio, va a ser activado en Estados Unidos a finales de este año. Aunque en realidad tan sólo una de varias características que van a habilitar para proteger a menores de peligros online, como han anunciado en una declaración oficial.
El escaneo de fotografías en busca de contenido de abuso a menores en realidad no es nuevo. Servicios como Google Drive ya lo hacen también. La diferencia principal aquí es que Apple ha prometido desde un principio a los usuarios una nube cifrada y un contenido al que nadie puede acceder sin las claves de acceso. Y, en teoría, sigue siendo así.
Cómo se detecta el contenido ilegal sin mirar las fotos
Con NeuralHash, un nuevo sistema de Apple que permite identificar si el usuario carga imágenes con pornografía infantil (o contenido ilegal relacionado) en iCloud. Lo hace sin descifrar las imágenes y haciendo uso de un sistema homomórfico que comprueba hashes contra una base de datos de imágenes ya conocidas y reportadas previamente.
Apple dice que ni siquiera ellos pueden saber qué hay en esas fotografías. A menos, claro, que se cruce un umbral de contenido ilegal conocido. Si el sistema detecta la posibilidad de que haya un contenido significante de imágenes ilegales, se le avisa a Apple y se revisa manualmente el informe para confirmar que hay una coincidencia alta. En ese momento se deshabilita la cuenta del usuario y se envía un informe a las autoridades.
En otras palabras, Apple asegura que no vulneran la privacidad de los usuarios con este nuevo sistema. Para ello sólo analizan imágenes antes de que sean subidas a iCloud y en el dispositivo del usuario. Sólo si el sistema detecta una colección de imágenes de abuso infantil que coinciden con una base de datos ya establecida, comprobarán el contenido y será enviado a las autoridades.
Fotografías difuminadas en Mensajes y ayuda de Siri
Aparte de este sistema de revisión de imágenes, la compañía introducirá una serie de herramientas para proteger mejor a los menores usado el iPhone. Por ejemplo, la app Mensajes detectará automáticamente imágenes sexualmente explícitas y las difuminará. Una alerta saltará y le indicará al niño que puede encontrarse detrás de esa imagen si desea abrirla. Así mismo, se le avisará de que los padres serán avisados y verán la fotografía también.
Así mismo, Siri, el asistente virtual de Apple, ofrecerá ayuda a los usuarios en relación a contendido de abuso sexual a menores. Si el usuario busca cómo reportar contenido de abuso sexual se le llevará a recursos y herramientas para hacerlo. Por otro lado, si el usuario busca contenido de abuso sexual en sí, se le informará de que puede ser dañino y problemático.
Más información | Apple
Ver 134 comentarios
134 comentarios
Trocotronic
¿Pero no eran los adalides de la privacidad? Verás qué risa con los falsos positivos.
comegato
A fin de cuentas lo de apple es siniestro, mantienen un sistema cerrado para violar tu privacidad mientras cargan contra android de poco seguro
JuanAR
Por aclarar... No ven las fotos, sólo sus hashes, que es una función unidireccional.
Funciona más o menos así:
FotoOriginal1 -> función hash -> hash1
FotoOriginal2-> función hash -> hash2
FotoOriginal3-> función hash -> hash3
FotoMuestraPornoI -> función hash -> hashPornoI
Si hashPornoI es igual a alguno de los hashes de las fotos originales es muy probable que sea la misma. Si coinciden varias es que guarda porno infantil.
Todo ello sin conocer el contenido de la foto original. Y no, del hash no se puede sacar el original.
salomon100
Creo que han cruzado una linea que NO TENIAN QUE CRUZAR. Esto es como lo de dejar una "puerta trasera para los buenos" ... nunca se puede dejar una "puerta trasera SOLO para los buenos".
Si esta cifrado esta cifrado. Cuantos falsos positivos habrá? quien revisara esos "falso positivos" ... vamos que si tu novia (o tu, da el igual el sexo) te ha mandado una foto o video "sexy" porque le da la gana y quiere, y el sistema detecta que tiene es un posible abuso de menores ... porque parece menor, vamos que sistema va a detectar si tiene 18 o 17 años, no? en fin. Que sera lo siguiente, detectar si subes por ejemplo en tu "nube privada" o incluso en tu ordenado personal, si tienes alojado una película pirateada?? o detectar si tienes alojado en tu ordenador fotos intimas vaya ser que sean de algún menor ??
Hay lineas que no se deben de cruzar. Y lo peor es que restringe siempre tu libertad y se suelen cruzar en post de tu "seguridad" y metiéndote "miedo" !!
Apple no muerdas la mano que te da de comer, que no es otra, sino que LA PRIVACIDAD ESTA POR ENCIMA DE TODO, esa siempre ha sido tu máxima y no te ha ido mal !!
joedelon
El objetivo es muy loable.
Pero ya puede ser bueno el algoritmo o la I. A. para diferenciar fotos propias del ámbito familiar de pornografía infantil. La revisión por parte de humanos rompe con la cacareada intimidad.
En todo caso, más pros que contras, aunque habrá conflictos, sin duda.
gonzaavellaneda
Me parece muy bien ya que los únicos que van a quejarse son los pedófilos. Las fotos hace rato que son escaneadas así que por fin están haciendo algo bien con ellas.
victorkubrick
"No mas cargador en nuestros telefonos porque nos preocupa el medio ambiente,
"PERO si necesitas uno, igual y te lo vendemos, obvio en su caja individual la cual traemos en cantidades industriales desde Taiwan".
"Vamos a revisar tus fotos para combatir la pornografia infantil porque..."
:)
Eflosten
Hoy lo lanzan con la excusa de "hay que proteger a los niños". Mañana ya está ahi para detectar, por ejemplo, tus canciones en MP3 y pelis descargadas de piratebay, que no es por nada pero Apple tiene un servicio de música y video por suscripción... No os engañeis, que este cuento es más viejo que el hambre, "es por su seguridad, y luego ya si eso lo usamos para mas cosas".
gigix
No me agrada crApple, pero medidas como estas son de aplaudir, mano dura con los loliconeros
Usuario desactivado
Me ha gustado eso de que comparta las fotos comprometidas con los padres. Aunque sea por las duras los chavales aprenderán a no sacarse fotos guarras que algún día pueden acabar en internet y arruinarles la vida.
Ecliptic
A ver , no es tan grave, simplemente un sistema autónomo compara si tienes fotos de pornografía infantil ya conocidas en tu móvil.
No va a saltar porque tengas una foto de tu hijo duchándose, saltará si tienes esa foto que ya ha sido identificada.
No me parece mala idea en absoluto.
user7381
En la UE está prohibido el escaneo masivo e indiscriminado de datos “porsiaca”, dudo que puedan implementar esto en la UE. Muy mal Apple, el propio Tim ya se lleno la boca cuando el FBI le pedía un backdoor con que “no se puede hacer una puerta trasera solo para los buenos”, pero aquellos eran sus principios, si no te gustan, tiene otros.
TelloCaA
Deje de leer en
heebbi
He usado iPhone del el iPhone 3GS, he tenido iPhone 3GS,4,5,7,8,X y 12. Siempre me he jactado de la privacidad y el día de hoy mi confianza se acaba, a partir de hoy desconfío totalmente de Apple y su supuesta privacidad, la intención es buena, pero eso de que “mantenemos tu privacidad” a partir de hoy ya no les creo nada, hoy me has perdido apple
asdarfa
Instagram es peor, porque no mira hash sino la foto real(también es verdad que la subes porque quieres).
Tanto pechos como niños desnudos te chapan la foto al momento de darle a publicar.
rafaello76
Y quién paga el internet para transmitir los datos?
Akenatón 2013
El que guarde pornografía infantil en su móvil, número registrado en la red telefónica con nombre y apellidos, no solo comete un delito sino que es estúpido. Detectar el origen de cualquier cosa que se suba a la nube por parte de quien tenga atribuciones para ello o pueda hacerlo debe ser facilísimo, por mucha privacidad teórica que haya. Hasta los números de prepago tienen que estar registrados.
154549
Muy importante recalcar que compara el hash de tus imágenes con el de imágenes ya conocidas. No se trata de un sistema de reconocimiento de imágenes o algo así, si no los falsos positivos (imágenes mal reconocidas, fotos de hijos, sobrinos o conocidos recibidos por whatsapp bañándose...) iban a dar más de un disgusto.
noseponada
La intención es buena, la privacidad nula.
filomatico
Mira que bien, ya no necesitamos a la Justicia... Y así, entre clamorosos aplausos, es como mueren los derechos individuales. Y las civilizaciones. Insensatos.
petote
"Lo hace sin descifrar las imágenes y haciendo uso de un sistema homomórfico que comprueba hashes contra una base de datos de imágenes ya conocidas y reportadas previamente. "
Es decir, que detectarán fotos que ya existen pero no las de nueva creación. Menudos genios.
rexd94
Presiento que esta medida de Apple le va a jugar en contra después, como arma de doble filo. Dirán que no revisarán las imágenes pero quien sabe si a alguien se le ocurre j*der y meter la mano donde no debe.
pastoreo
Resumiendo: 1.- Apple te escanea el móvil de forma automática y sin tu consentimiento, o lo que es lo mismo instala un virus autónomo dentro de tu móvil para espiar su contenido, 2.- Empleados de Apple tienen acceso al contenido de tu móvil sin tu consentimiento y sin aviso alguno al usuario. 3.- Empleados de Apple pueden en base a su criterio o sin el, inculpar a un usuario de un delito y hacer que la policia arreste al usuario.
Todo lo anterior bajo la excusa del bien superior que hoy puede ser uno como mañana otro.
Usuario desactivado
"si el sistema detecta una colección de imágenes de abuso infantil que coinciden con una base de datos ya establecida"
Cómo? Apple tiene acceso a una base de datos de pornografía infantil? Quién tiene acceso a esa base de datos? Por qué Apple tiene acceso a ella? Apple tiene pornografía infantil para comparar? Quién les ha dado permiso para tener eso?
Con qué derecho revisan mis fotos privadas si creen que una foto de mi hijo en la playa o baño es pornografía infantil?
SchummelHummel
Pedofilos molestos en 3, 2, 1...
Nandux
Y luego, por qué no analizar las conversaciones privadas, o cámaras de nuestros hogares, usando cualquier altavoz inteligente, televisores, barras de sonido, ordenadores, o los propios móviles, buscando indicios de malos tratos, abuso, violencia doméstica, chantajes, amenazas.. Lo que se nos ocurra que esté muy mal y muy feo.
Cuando el sistema diese falsos positivos, que los daría, alguien tendría que escuchar los audios para discernir lo que ocurre. ¿Quién les da ese derecho?
No lo tiene el estado, ¿cómo se lo puede adjudicar una empresa privada? ¿ quien ha dicho que tienen que ejercer de policía? La privacidad es sagrada.
Los delitos han de perseguirse y castigarse, pero no de cualquier forma. El fin, por noble que sea (que de las grandes corporaciones dudo que lo sea), no justifica los medios.
luzbel2
Por suerte yo guardo todo bien cifrado para evitar problemas