Enfocar objetos y tenerlos en Photoshop: este proyecto nos enseña una evolución del copiar y pegar

Enrique Pérez

Editor Senior - Tech

Editor especializado en tecnología de consumo y sociedad de la información. Estudié física, pero desde hace más de diez años me dedico a escribir sobre tecnología, imagen y sonido, economía digital, legislación y protección de datos. Interesado en aquellos proyectos que buscan mejorar la sociedad y democratizar el acceso a la tecnología. LinkedIn

Copiar y pegar con objetos reales. Enfocar un libro, una prenda de ropa o una planta con la cámara del móvil y poder pegar esa imagen del objeto en Photoshop. Es el proyecto creado por el diseñador y programador Cyril Diagne de Google Arts y ex-director del ECAL Media & Interaction Design de la Universidad de Lausanne.

La aplicación combina reconocimiento de imágenes y machine learning para poder elegir elementos de nuestro entorno y pegarlos en un software de edición de imagen. Por el momento únicamente funciona con Photoshop y se encuentra en fase de desarrollo, no disponible de manera comercial, pero según explica el creador en el futuro podría funcionar con otros programas de edición.

Una gran demostración de las posibilidades de la cámara del móvil y la IA

El creador ha explicado en su cuenta personal de Twitter cómo funciona el proyecto. Se basa en tres módulos independientes. En primer lugar tenemos la aplicación para el móvil, encargada de enfocar al objeto que queramos copiar y poder capturar la imagen que luego será trasladada.

La segunda parte es el servidor que actúa como interfaz entre la aplicación móvil y Photoshop. En este punto es donde encuentra la posición en la pantalla utilizando Screenpoint. Finalmente tenemos el servicio de eliminación del fondo y la detección del objeto. Y es que con esta aplicación lo que trasladamos a Photoshop es un objeto en concreto, no toda la imagen.

Para la detección del objeto se ha utilizado un sistema basado en machine learning que está configurado sobre el servidor. Se trata de BASNet ('Boundary-Aware Salient Object Detection'), un sistema abierto de redes neuronales desarrollado por Xuebin Qin durante la CVPR 2019.

Según describe el autor, la latencia es aproximadamente de 2,5 segundos para cortar el objeto y de unos 4 segundos para pegarlo en Photoshop.

La combinación de estas tecnologías no es nueva. Es una de las bases de aplicaciones como YouCam Makeup que permiten identificar un objeto, en ese caso nuestro rostro, y aplicar un efecto.

El mes pasado Google nos mostraba MediaPipe Objectron, una tecnología móvil para detectar objetos 3D en tiempo real y modelizarlos para crear imágenes.

En Xataka | La realidad aumentada ante el dilema de las promesas incumplidas

Ver todos los comentarios en https://www.xataka.com

VER 7 Comentarios

Portada de Xataka