Google ha publicado en su blog de inteligencia artificial cómo están mejorando la función de predicción automática en la selección de texto en Android gracias al aprendizaje federado. Este término hace referencia al aprendizaje automático que entrena a un algoritmo a través de múltiples dispositivos, de los cuales el modelo puede obtener datos.
Con la gigantesca red de dispositivos que autorizan el envío de datos, la red neuronal de Google se nutre de la información necesaria para mejorar constantemente. En concreto, Google afirma que desde que usan aprendizaje federado han llegado a mejorar la precisión del modelo hasta en un 20%.
Tu teclado es cada vez mejor gracias a los datos de otros teléfonos

Google ha sacado pecho sobre el funcionamiento de su predicción automática para la selección de texto. Si usamos el teclado de Google y vamos a seleccionar un fragmento de texto, el teclado es capaz de anticiparse a las palabras que vamos a querer seleccionar, haciendo que esta sea aún más rápida y autocompletando dicha selección.
Smart Text Selection, el nombre que recibe esta función, se centra en keywords muy bien definidas, como direcciones, números de teléfono y demás, para tener claro dónde estará el límite de la frase seleccionada.
Esta función lleva un tiempo en Android, pero ahora Google ha explicado cómo están logrando mejorarla gracias al aprendizaje federado. El modelo se entrena con interacciones reales de los usuarios, datos que se comparten con los servidores de Google cuando conectamos el teléfono por la noche (aunque si tenemos otros hábitos, puede compartirlos cuando esté "preparado").

Según Google los datos se comparten de forma completamente anónima. Los datos en bruto del dispositivo no se comparten, tan solo las pequeñas actualizaciones sobre el modelo. Además de no enviarse información en sí sobre nuestro teléfono, Google asegura que "los datos de esta red están protegidos por políticas que restringen su uso".
Google resume así el funcionamiento de su modelo en un sencillo esquema abc:
- a) Se seleccionan los dispositivos.
- b) Los dispositivos seleccionados envían sus datos locales al servidor.
- c) Se envía de vuelta al dispositivo el modelo mejorado (no los datos utilizados para el entrenamiento que provienen de otros teléfonos).
Gracias al aprendizaje federado Google asegura mejoras de entre un 5 y un 7% para la selección de varias palabras, y entre un 8 y un 20% de mejora en el caso concreto de la selección de direcciones.
Ver 23 comentarios
23 comentarios
m0w
La gente compra hardware que tiene partes que no son para usar el propietario del dispositivo, sino para los fabricantes. Concretamente los nuevos Pixel6 o especificamente los Qualcomm 888 con sus nucleos tensor, que son por y para enviar datos "anonimos" sobre el uso del dispositivo a estas compañias. Como que escribimos en el teclado, que texto seleccionamos, que fotos vemos, que aplicaciones usamos, cuanto tiempo usamos segun que aplicaciones como por ejemplo youtube...
resumiendo, que aunque le digais a la aplicacion en cuestion que no le dais permisos para compartir los datos que os solicitan, estos datos siguen siendo "publicos" para Google, y para muchos otros fabricantes, gracias a que estais pagando por dispositivos con procesadores con partes concretas dedicadas a ello.
Sinh
otra razón para “de momento” comprar iPhone.
No es el que mejor relación calidad-precio tiene pero si es el único que aún respeta gran parte de privacidad, solo por esa razón para mi vale la pena pagar ese extra de marca.
Me encantaría que hubieran marcas Android que cuidarán más la privacidad para no tener que estar atado a iOS, a ver si alguna de las potentes toma nota.
togepix
Yo soy usuario convencido de Apple . Pero porque creo que funcionan mejor como ecosistema .
Pero convencido estoy que espiar me espían los dos , aunque entiendo que Apple menos .
Pero eso de que nadie te espía en un Smartphone …. Ja .