El nombre de NVIDIA siempre estará ligado con la industria de los videojuegos y los gráficos. Fueron los responsables de una auténtica revolución: las primeras GPUs o más conocidas como tarjetas gráficas. El realismo en los gráficos 2D y 3D, la capacidad de mostrar cada vez más polígonos en escena ¿Os acordáis de la GeForce 256 capaz de mover más de 10 millones de polígonos? Ahora eso nos parece insignificante.
Pero la evolución tecnológica de NVIDIA no paró ahí.
No son pocos los que se siguen sorprendiendo cuando el CEO de NVIDIA, Jen-Hsun Huang, aparece en alguna conferencia proclamando que buena parte de los ingresos de la compañía proceden ya de otras fuentes: del Deep Learning, de la computación en la nube o del desarrollo de sistemas para automóviles (algunos de ellos autónomos). Han conseguido entrar e impulsar muchas otras industrias como ya hicieran con los videojuegos. El Deep Learning y el Machine Learning es uno de sus principales focos actualmente.
El hecho es que NVIDIA no se acaba de subir a esta nueva revolución como un principiante con el mero intéres de diversificar ingresos. NVIDIA es el motor de todos estas tecnologías desde hace unos cuantos años. Y como muchos analistas afirman: esto solamente acaba de comenzar.
2006, el año cuando comenzó la revolución de NVIDIA más allá de los videojuegos
2006 es un punto de inflexión para NVIDIA, en ese año lanzó el kit de desarrollo, CUDA (Compute Unified Device Architecture, Arquitectura de Dispositivos de Cómputo Unificado), que marcaría un antes y un después en cómo se programaba sobre las GPUs. Simplificando el concepto, lo que se quería conseguir era facilitar los cálculos independientes necesarios para renderizar cada píxel. Como la renderización de sombras, reflejos, iluminación o transparencias.
Hasta entonces era impensable que los científicos usarán GPUs para su trabajo, pero a partir de ese momento. CUDA posibilita utilizar lenguajes de alto nivel como C++ o Python para programar complejos cálculos y algoritmos en GPUs. Ya que permite programar trabajos en paralelo y con gran cantidad de datos.
En la actualidad, la plataforma CUDA se utiliza en miles de aplicaciones aceleradas en la GPU y ha sido impulsora de miles de artículos de investigación. Hace un tiempo en Xataka tuvimos la oportunidad de hablar con Manuel Ujaldón que ya nos avanzaba las posibilidades del uso de las tarjetas gráficas como experto en la materia.
Este nuevo paradigma computacional permite un “co procesamiento” repartido entre la CPU y la GPU. CUDA se incluye en las GPUs GeForce, ION Quadro y Tesla GPUs. Los desarrolladores pueden hacer uso de las diversas soluciones para programar sobre CUDA, NVIDIA tiene una inmensa cantidad de herramientas y plataformas soportadas dentro del ecosistema.
Siempre me ha gustado esta explicación en forma de vídeo entre una CPU vs una GPU.
Cuando el Deep Learning llamó a la puerta de NVIDIA
Andrew Ng, del que ya hicimos un extenso perfil en Xataka, predijo el uso de las GPUs en el campo de la inteligencia artificial y cómo ello iba a posibilitar acelerar el Deep Learning. Corría el año 2008 cuando publicó un paper hablando sobre el tema, pero no fue hasta pasados unos años cuando varios experimentos usando la Nvidia GeForce lo confirmaron. Como por ejemplo, el realizado por Alex Krizhervsky en 2012, estudiante de doctorado de la Universidad de Toronto que consiguió usando 2 tarjeta gráficas NVIDIA GeForce comunes procesar cerca de 1,2 millones de imágenes con una precisión del 15%, mucho más de lo que nadie había conseguido hasta la fecha.
Por aquella fecha, Google Brain impulsada por Andrew Ng conseguía los primeros hitos en Deep Learning: capaces de reconocer un gato entre los más de 10 millones de vídeos de Youtube, pero con el inconveniente de necesitar prácticamente un data center con más de 2.000 CPUs. Más adelante Bryan Catanzaro, un investigador de NVIDIA Research, conseguía un experimento similar sustituyendo esas 2.000 CPUs por tan sólo 12 GPUs de NVIDIA.
Actualmente empresas como Google, Facebook, Microsoft o Amazon basan su infraestructura en las GPUs desarrolladas por NVIDIA. Y se calcula que con el boom de la Inteligencia Artificial existen en torno a 3.000 startups por todo el mundo trabajando sobre la plataforma de NVIDIA.
Las GPUs de NVIDIA han posibilitado el trabajo en paralelo reduciendo los procesos de entrenamiento de modelos en Machine Learning de semana a días. Pero la aceleración de este proceso supera las previsiones de la famosa ley de Moore, ya que estas mismas redes neuronales han alcanzado un 50x de rendimiento comparado en tan sólo tres últimos años.
Construyendo Data center y las placas más pequeños de IA
NVIDIA tiene una provechosa línea de componentes listos para integrar en los Data Center más exigentes. No es necesario montar a base de GPUs cada uno de ellos por separado, sino que NVIDIA comercializa uno de los sistemas más complejo que existen en la actualidad como el NVIDIA DGX-1. Se trata de un super-ordenador con una configuración de ocho GPUs Nvidia Tesla P100, dos procesadores Xenon y 7TB de almacenamiento SSD, lo que nos da un rendimiento de 170 teraflops, algo equivalente a la potencia de 250 servidores convencionales, todo dentro de una caja del tamaño de un pequeño escritorio.
Capaz de representar todo un regalazo para proyectos como Open IA impulsado por Elon Musk que hace unos meses fue todo un acontecimiento al recibir el cacharro de manos del CEO de la compañía. Que servirá para impulsar el desarrollo de herramientas que van desde tareas básicas hasta avanzados desarrollos relacionados con el aprendizaje de idiomas, reconocimientos de imágenes, así como la interpretación de expresiones.
De Robots, drones o cualquier dispositivo IoT conectado por NVIDIA
En 2015 NVIDIA sacó al mercado el kit de desarrollo Jetson TX1 integrando un procesador ARM de 64 bits junto con una GPU con arquitectura NVIDIA Maxwell. Entrando de lleno en los dispositivos más pequeño gracias a esta placa. Principalmente, drones, pequeños robots o cualquier dispositivo conectado a la “internet de las cosas”.
Recientemente realizó una fabulosa evolución el Jetson TX2 del tamaño de una tarjeta de crédito. Doblando su potencia y consumiendo apenas 7,5 w. Integrado con Gigabit Ethernet, conectividad inalámbrica WiFi ac y Bluetooth, y bastante memoria: 8GB de RAM y 32GB en formato eMMC.
Enfocado a trabajar con dos flujos de vídeo 4K o la gestión de hasta 6 cámaras al mismo tiempo, de ahí que esta tarjetita sea un buen invento para sistemas de seguridad inteligentes. Pronto veremos dispositivos que entre sus especificaciones incluyen este hardware o lo que nosotros queramos construir como makers., ya que está concebido para experimentar y construir cosas con ello.
La democratización del Deep Learning mediante el Cloud computing
La democratización de las herramientas de desarrollo en la nube también ha llevado a el uso de esas GPUs de cálculo dentro de dichos sistemas. Con la posibilidad de escalar y aprovechar hasta el último hueco de procesamiento gracias al balanceo y gestión de recursos que posibilitan estas plataformas.
Ya no es necesario disponer de una imponente infraestructura, basta con echar un vistazo a TensorFlow que permiten aplicar Deep Learning y otras técnicas de Machine learning de una forma bastante potente u otras plataformas como IBM Watson Developer Cloud, Amazon Machine Learning o Azure Machine Learning.
Consultando Google Cloud Computing nos damos cuenta cómo se enorgullecen de contar con GPUs como la Tesla K80 o Tesla PS100 para automatizar grandes cargas de datos a analizar, anunciado a bombo y platillo en su portada del servicio.
También lo vemos en Azure, donde NVIDIA y Microsoft firmaron una fuerte alianza.
Coches autónomos bien enseñados gracias al Deep Learning
Una de las más apasionantes tecnologías es la de los coches autónomos. Quizás hablemos siempre de Tesla como el innovador en ese campo, pero NVIDIA está realizando avances técnicos muy interesantes. Algunos en colaboración con Tesla y de forma independiente con otros fabricantes.
Acuerdos como el de Mercedes-Benz para desarrollar el sistema digital de la marca, a través del centro de operaciones de Inteligencia Artificial con los que quiere dotar cada vehículo. Y no es el único, ya que Honda, Audi o BMW también están integrado la tecnología de NVIDIA.
Además cuenta con alianzas como con Bosh muy enfocada en IoT. Y donde ve el uso de las GPUs de NVidia un elemento diferenciador para la construcción de un supercomputador a bordo capaz de identificar peatones o ciclistas, avisar en segundos cuando hemos realizado maniobras arriesgadas para nuestra seguridad.
NVIDIA DRIVE PX2 es su plataforma de AI para acelerar la producción de coches autónomos. Del tamaño de la palma de la mano empieza a integrarse en mucho novedosos modelos. Con un consumo de apenas 10 watts, añade una compleja red neuronal de computación. Añade una ingente cantidad de funcionalidades como el autocruise, el análisis de mapas HD actualizados en milisegundos con la información del entorno, etc..
Los riesgos del futuro en el que más fabricantes quieren entrar
El éxito en este océano azul por parte de NVIDIA no ha pasado desapercibido. Debido sobre todo a que la apuesta del futuro de la tecnología de los próximos años pasa por el Deep Learning. Decenas de startups enfocadas en el desarrollo de aplicaciones han surgido gracias a esta nueva arquitectura de chips.
Aliados en el pasado y el presente como Google, andan cada vez más obsesionados por construirse su propio hardware en torno a Tensor Flow y, por supuesto, sus algoritmos de búsqueda textual y mapas. Después de años aprendiendo sobre el hardware de NVIDIA, pronto veamos algo como el Tensor Processor Unit exclusivamente construido por Google.
Y no olvidemos de Intel y AMD centrados en CPUs pero que ven cómo el mercado de GPUs coronado por NVIDIA durante estos años proporciona ingentes sumas de dinero y les desplaza en las unidades de procesamiento preferidas por los principales actores de la tecnología. Intel anda detrás de chip Xeon Phi optimizado para Deep Learning.
Aunque entre tanto no viene mal recordar un punto negro en el historial de la compañía al no ser capaz de aguantar con su Tegra en esa primera hornada de smartphones, donde fue un fuerte aliado de Android, quizás tengamos que esperar a ver chips en smartphone de nuevo. La AI y VR serán un buen motivo para su regreso.
Quién sabe si podrán arrebatarle a NVIDIA un pedazo de la tarta del Deep Learning que está construyendo en torno a sí misma.
Ver todos los comentarios en https://www.xataka.com
VER 18 Comentarios