Google dio un golpe en la mesa cuando demostró a todo el mundo que la doble cámara no era necesaria, y obtener resultados destacables en modo retrato a través del ahora famoso efecto bokeh en los smartphones era posible por software. El Pixel 2, en vez de cámara doble, llegó con inteligencia artificial y esa, a día de hoy es la mejor y más importante herramienta del smartphone de Google, ¿por qué? Porque se basa en inteligencia artificial.
Pues ahora, esa herramienta diseñada por Google, y que era exclusiva para sus dispositivos, se hace open-source, lo que significa que cualquier persona o compañía podrá usarla o bien, meter mano para perfeccionarla o crear nuevos desarrollos.
DeepLab-v3+
Google confirmó que dicha herramienta es conocida como el código DeepLab-v3+, se basa en una plataforma de segmentación de imágenes creada con redes neuronales convolucionales (CNN), que consisten en un método de machine learning capaz de analizar los datos de una imagen con resultados destacables.
DeepLab-v3+ analiza los datos visuales de una imagen para así poder determinar que objetos están presentes y así separarlos en capas. Una vez identificados, el siguiente paso es dividir los elementos de primer plano de los elementos del fondo. Una tarea que es relativamente sencilla cuando se tienen dos sensores de imagen, pero cuando sólo se tiene uno es cuando la inteligencia artificial hace el trabajo.

Lo impresionante de todo esto es que esa tarea de análisis y separación se hace en sólo unos segundos, por lo que los resultados son inmediatos. Y esto es precisamente lo que hace que la cámara de los Pixel 2 sea así de buena, ya que son capaces de difuminar el fondo y dejar al sujeto en primer plano con un aspecto casi profesional.
Liang-Chieh Chen y Yukun Zhu, ingenieros de software en Google, explican que las herramientas basadas en deep learning han mejorado de forma importante en los últimos años, lo que hace que, por ejemplo, esta segmentación de imágenes tenga unos niveles de precisión imposibles de imaginar hace unos años.
Por lo anterior, Google está abriendo esta herramienta a todos, ya que esperan que más personas se interesen en este tipo de tareas y lo lleven a niveles de mejora significativos. Es así como a partir de ahora mismo, cualquier desarrollador podrá hacer uso de la herramienta de Google e incorporarla en sus proyectos, aplicaciones o dispositivos.
Más información | Google Research
En Xataka | El modo retrato a prueba: iPhone X, Galaxy Note 8, Huawei Mate 10 y Google Pixel 2 XL frente a Lupe, fotógrafa profesional
Ver 18 comentarios
18 comentarios
piter_parking
he tenido varios terminales de gama alta el último año, y sin duda ninguno supera los resultados fotográficos que consigue el procesado de google. Ya no solo el modo retrato, si no, en prácticamente todos los escenarios.
DarkDudae
Soy programador, y he estado haciendo pruebas con redes neuronales computerizadas. Lo primero que hice, fue enseñar a la máquina a hacer operaciones aritméticas simples, en concreto comencé por la suma.
Pues bien, este "simple" proceso, me generó unos datos temporales de aproximadamente 30Mb.
Imaginad la capacidad de proceso de Google para hacer tareas tan complejas como analizar imágenes, separar capas y demás....
Don Kukuteku
Lo veo como una excelente noticia el hecho de que mas personas puedan tener acceso a esta herramienta. Personalmente me he beneficiado de esto, tengo la App de Camara modificada del Pixel 2 en mi teléfono(Leeco Pro 3 X727), específicamente la GCam Mod Arnova's V6 y la verdad no se puede pedir mas. Hablo de un movil "Chino" con una sola camara y que para cuando salió en 2016 ni siquiera era para tirar cohetes, y con esta App mejora bastante. Tanto es la mejora que en el modo Retrato y HDR+ en las pruebas que he hecho con amigos supera por mucho lo logrado en un iPhone 7 Plus, la diferencia es notable principalmente en interiores y con luz artificial (en la Oficina).
Hasta ahora solo se puede usar a algunos móviles con Procesadores Snapdragon 820/821 o superior y en algunos SD650... Así que si se puede popularizar en otros dispositivos con hardware inferior seria una gran noticia, porque la verdad a mi me ha dejado sorprendido esta tecnologia... Y no soy fan de hacer fotos con el móvil..
WhiteLion
Últimamente se ha puesto de moda entre los "hipsters" tecnológicos echar mierda a Google por cualquier cosa, pero Google jamás ha dejado de aportar constantemente al mundo del software y el open source novedades que podamos disfrutar todos.
A lo mejor prefieren el modelo de Apple...
arvatroz
Excelente
joseclementevazquez
Veremos, veremos, después lo sabremos...
alin10
Lástima que el Nokia 6.1 no trae Efecto Bokeh en la Cámara trasera,probé con la Google Camera y si funciona pero con la Cámara de fábrica no! Y en el Play Store no han puesto la App para actualizarla,me dijeron los del Soporte Técnico por Chat que para actualizarla tiene que ser por OTA (Osea metiendome en Configuración---Sistema---Actualización del Sistema---Buscar actualización),esto me es raro que en ninguna Review lo hallan dicho,y menos la de Ustedes, ¿La Google Camera trae DeepLab-v3+ o se instala aparte?
ilwp
Hummm.
Otra noticia con las palabra IA y Google en el titular.
Y vamos a una por día.
juan_mm2018
Me parece bueno que google se incorpore en obtener resultados destacables en modo retrato sin tener que el celular tenga dble camara y lo mejor es que cualquier persona o compañía podrá usarla o bien, meter mano para perfeccionarla o crear nuevos desarrollos.
En mi opinión me parece un gran avance de parte de parte de google creando herramientas y que estén a la mano de mas personas porque no necesariamente hay que tener un dispositivo móvil con doble camara, para concluir dejo buenas expectativas de que habrá desarrolladores se incorporen en hacer uso de la herramienta de Google e incorporarla en sus proyectos, aplicaciones o dispositivos.
patriciocardenas
Hace meses instale una versión de la cámara del Pixel en un galaxy pero al abrir la app daba error muy seguido, conseguí una apk con (aparentemente) una versión inferior a la que instale primero y pude usar la app así como el modo retrato. Es cierto que los resultados mejoran notablemente pero de noche con luz artificial es donde flaquea, en cambio con la app nativa en las mismas condiciones la cámara saca mejores resultados, con la app del Pixel se ve mucho ruido en la foto y con la nativa no pero de día si que es muy buena. Ojala en un futuro se pueda usar la app en modelos con un procesador de gama media aunque en mi caso solo usa la app para poder usar el modo retrato.
attricus
Pues vamos para bingo, mi Xperia XZ tiene bokeh en su programa de camara de fotos y obviamente no tiene doble camara.
Asique... saquen sus conclusiones con la ultranovedad de Google.