La IA no siempre se manifiesta en un terminal móvil de un modo claro. Nos dicen que un terminal móvil es “inteligente” y lo damos por hecho, y hasta asumimos que hay elementos de su funcionamiento que responden a esa inteligencia, cuando en realidad no tienen nada de diferencial al usar métodos computacionales "clásicos".
Es algo normal, porque realmente solo llevamos una generación tecnológica conviviendo con la IA en dispositivos móviles (o en los asistentes de voz), lo que hace que no sea fácil encontrar ejemplos que despunten sobre la forma tradicional de relacionarnos con la tecnología.
Por otro lado, la IA, cuando está bien hecha, pasa desapercibida y la integramos de forma natural en la interacción con los dispositivos o los servicios. Es lo que pasa con la IA de la nube en servicios como las búsquedas, el cálculo de rutas o los efectos automáticos en fotos.
Los terminales empiezan a rentabilizar la IA
De todos modos, en esta segunda generación tecnológica de la IA, implementada en terminales como los nuevos Huawei Mate20 Pro, ya podemos encontrar ejemplos que sí dependen de la tecnología del terminal y que muestran explícitamente cómo la NPU (doble en este caso), permite llegar donde otros no llegan. Nos referimos a llegar desde el propio terminal y no en la nube.
El reto está en llevar el procesamiento de la IA al propio dispositivo para no tener que subir nuestros datos a la nube, sin que el consumo energético aumente y sin que el rendimiento se vea penalizado. Esto permite eliminar el efecto de la latencia en las comunicaciones con los servidores cloud, así como salvaguardar los datos.
Ejemplos prácticos
El movimiento se demuestra andando, suele decirse. Y para ello vamos a usar tres ejemplos de uso de la IA en los terminales Huawei Mate20 Pro, equipados con el SoC Kirin 980 y su doble NPU, el acelerador de operaciones de IA.
Estos tres ejemplos empiezan con pruebas de rendimiento o benchmarks, para evaluar de un modo comparable y replicable la potencia de procesamiento de apps de IA. Siguen con la aplicación de la IA en el vídeo, y acaban con la organización automática de fotos y vídeos en la galería multimedia.
Son tres casos de uso de los que ya podemos disfrutar. Mejorables, como todo, pero con un funcionamiento correcto tal y como están en este momento.
Benchmarks, rendimiento puro
En el caso de los benchmarks, ya hay algunas apps diseñadas para evaluar la potencia de cálculo de un sistema para procesar apps de IA. Son aplicaciones que se centran en el reconocimiento de imágenes, que es, a día de hoy, la aplicación por excelencia de la inteligencia artificial en los móviles, junto con el procesamiento de lenguaje natural.
Los benchmarks de IA, con todo, no son muchos y no todos funcionan de una manera óptima. Es necesario que los desarrolladores de aplicaciones aprendan a compilar sus programas, de modo que reconozcan a los aceleradores de IA, como la NPU. Si no lo hacen así, estas apps no “sabrán” que tienen un acelerador y no lo usarán.
El benchmark más notable del momento es AI-benchmark y en su página encontramos un ranking donde se ve cómo los Mate20, seguidos de los P20, se sitúan en los primeros puestos de la lista de resultados.
De todos modos, no está claro que este benchmark use la aceleración de la NPU totalmente. En la versión beta, incompatible con Android 9, el Huawei P20 Pro, con el Kirin 970 y una única NPU, la usaba de un modo explícito.
El vídeo, procesamiento en tiempo real
El segundo ejemplo está en el procesamiento de vídeo en tiempo real, para aplicar efectos como el desenfoque selectivo o la eliminación del color en la escena, menos en la parte correspondiente a las personas que aparecen en pantalla.
Estos efectos requieren que la NPU aplique algoritmos de detección de elementos en pantalla en tiempo real, lo que supone procesar una gran cantidad de píxeles al mismo tiempo que se capturan. La resolución está limitada a Full HD, lo cual es lógico, aunque con potencial para mejorar a medida que se optimicen los algoritmos que intervienen en el procesamiento de vídeo.
Una forma de identificar este procesamiento avanzado es haciendo una foto al mismo tiempo que se graba el vídeo. La foto aparece sin procesamiento alguno, lo cual indica que los píxeles pasan por las NPU antes de “volver” a la pantalla donde las vemos en un tiempo que, aún no siendo real, nos lo parece.
La galería: fotos que se ordenan solas
La galería de fotos de los Mate20 Pro es todo un ejercicio de IA aplicada. No es algo nuevo: Google Fotos o Amazon Fotos ya emplean este tipo de clasificación automática, pero lo hacen usando servidores y centros de datos con una potencia de cálculo enorme. Tiene que clasificar muchas más imágenes, por supuesto, pero hacerlo en el smartphone es sumamente conveniente.
La galería es capaz de identificar decenas de motivos diferentes: desde personas hasta gatos y perros, pasando por una gran variedad de objetos y escenarios. Y lo hace sin que nosotros hagamos nada más que hacer la foto.
La ordenación a partir de los datos del GPS es otro clásico, pero es una identificación determinista. El reconocimiento de tantos tipos de elementos y objetos o personas sí que tiene un trasfondo más elaborado, donde los algoritmos y la aceleración de IA tienen mucho que ver.
Vídeos que se editan solos
Otra funcionalidad paralela es la edición automática de los vídeos de la galería, en la que el móvil busca los momentos más importantes (generalmente en los que hay personas y salen "bien") y crea un clip de 10 segundos con efectos de pan y zoom básicos.
Si el sistema no analiza el vídeo cuando se está grabando, podemos forzar la edición bajo demanda.
Esta funcionalidad tiene un gran potencial, especialmente de cara a encontrar información en los vídeos, de igual modo que se pueden encontrar elementos reconocibles en las imágenes.
Y lo que vendrá
La IA en los dispositivos móviles y de IoT es una tendencia que tiene un amplio recorrido. Acaba de llegar como quien dice, pero ya tenemos ejemplos tangibles y funcionales en terminales como los Mate20 Pro de Huawei.
Los ejemplos que hemos mencionado son algunos de los más visibles. EMUI y otras aplicaciones integradas en el propio sistema usan IA, pero de un modo menos obvio, como en los algoritmos de gestión de las aplicaciones en segundo plano para ahorrar batería. El reto es conseguir que los desarrolladores usen de forma generalizada y habitual las API que permiten acceder al hardware de aceleración de IA (la NPU).Y está claro que ya se han puesto a la tarea.
Imágenes / Huawei
Ver todos los comentarios en https://www.xataka.com
VER 0 Comentario