Una vez optimizado el tratamiento de las imágenes que tomamos con sus teléfonos, y el Pixel es un claro ejemplo de procesamiento estupendo, Google quiere que la cámara de tu teléfono sea lo más avanzada posible y aplicar a nivel de usuario todo el trabajo en Machine Learning de la compañía. Llega Google Lens.
Google Lens aplica la AI a fotos y Assistant
Google Lens es como la compañía ha bautizado el paso adelante que llegará en el reconocimiento de imágenes a algunos de sus servicios. Lo hará a Google Fotos y también a Assistant, de manera que estas aplicaciones podrán analizar mediante Machine Learning qué es a lo que estamos apuntando con la cámara o lo que aparece en una imagen, y ofrecer acciones relacionadas. Todo basándose en el análisis de la imagen en tiempo real.

Las acciones con las que Google Lens pretende entusiasmarnos no pintan mal. Puede ser que simplemente nos identifique un tipo de flor de una foto, algo que ya podíamos hacer, a poder reservar un restaurante o conocer sus críticas en Google apuntando con la cámara al cartel. Si por ejemplo vemos un cartel de un concierto, aparecerían varias opciones: desde ver vídeos de ese grupo en Youtube o comprar su música, a adquirir entradas para un próximo concierto o añadir esa fecha como reservada en nuestro calendario.

Para que Google Lens llegue a Fotos, todavía falta algo. Google ha anunciado que será a finales de año. Toca esperar.
Ver 9 comentarios
9 comentarios
dark.tron
Me suena familiar.. Microsoft?
danielcrm5
Curiosamente me recuerda a Windows Phone.
Usuario desactivado
Si funciona igual de bien que como se vió en la conferencia, me parece una sacada de rabo por parte de Google.
ASG
Esto y los servicios cognitivos de microsoft muestran el camino a seguir aunque a mi parecer microsoft esta mas avanzada
KoolKIDz
Con el Machine Learning de Google ahora si podemos usar el termino de TELEFONO INTELIGENTE.
aguf2004
Es PARECIDO (coloco parecido en mayúsculas, quiero evitar insultos) al Google Goggles que me gustaba usar ya desde el 2010, 2011.
axiomafv
Qué cosas!!!
alons0
Esto si que es una auténtica revolución en el lado de la cámara, y no los megapixels.
Hace tiempo que vengo pensando que aplicar algoritmos de inteligencia artificial y machine learning a las cámaras era la forma más útil de utilizar estos desarrollos a corto plazo, y un paso previo para su potencial uso en dispositivos de Realidad Aumentada. Porque vamos a ser realistas, emplear esas tecnologías en asistentes virtuales está muy bien, pero no termina de cuajar. Y si no a ver quien es el guapo que le da uso al asistente de su teléfono más allá de las preguntas chorras y saber cuando juega su equipo favorito (y yo soy uno de esos). No digo que en un futuro los asistentes virtuales sean de uso común, pero no en estos días.
Poder enfocar, por ejemplo, el código de barras de un producto o fotografiarlo y que el teléfono te diga qué producto es, lote y fecha de fabricación o caducidad, precio o incluso críticas al sabor por parte de la gente o si recomiendan su compra o no, todo eso sin aplicaciones de por medio y en el momento. O enfocar un cartel y el teléfono reconozca si se trata de un cartel de alquiler de una vivienda y te proponga añadirlo como contacto para poder llamarlo, o si se trata de algún cartel publicitario de un evento y te ofrezca añadirlo a tu calendario junto con la ubicación e incluso te ofrezca compartirlo con tus contactos. Son unos ejemplos de los miles de usos que se me ocurren
Tal y como yo lo veo, sería como dotar al smartphone y sus asistentes virtuales de la capacidad de ver e interactuar con el entorno.
En mi opinión, una idea brillante. Todo un acierto y muy bien visto por parte de Google. Creo que ha sido lo más relevante y trascendente del evento.
A ver lo que tarda la competencia en copiar la jugada.