Los superordenadores generalmente están en organizaciones académicas o gubernamentales y se utilizan para investigaciones científicas o predicciones como las meteorológicas. Sin embargo, Tesla parece estar aquí para romper con eso. Han presentado su superordenador, que dicen que es el quinto más potente del mundo ahora mismo.
Andrej Karpathy, jefe de inteligencia artificial de Tesla, ha presentado el superordenador en la conferencia de 2021 sobre Visión por Ordenador y Reconocimiento de Patrones. Durante la conferencia mencionó el superordenador y dejó ver unas imágenes del mismo. Se trata del tercer cluster de grandes ordenadores de Tesla. Todos en conjunto forman el que se calcula que sea el quinto superordenador más potente que existe.
Si las especificaciones que ha mostrado Andrej Karpathy son correctas, estamos ante una auténtica bestia. Se trata de un sistema de 720 nodos de 8x A100 80 GB con 5760 GPUs en total. Este ordenador puede sacar una potencia de 1,8 EFLOPS con una capacidad de conmutación de 640 Tbps.
La ansiada conducción autónoma
¿Par qué un superordenador de semejante calibre? Para la conducción autónoma. Durante los últimos años Tesla ha puesto sus esfuerzos en la computación tanto dentro como fuera de sus vehículos.El FSD dentro de cada Tesla se encarga de analizar y calcular en tiempo real todos los parámetros. Mientras tanto, necesita de superordenadores que se encarguen de aprender y entrenar a la IA que luego se monta en los vehículos.

Pero Tesla aparentemente no se va a quedar aquí. Está desarrollando Dojo desde hace un tiempo y Elon Musk ha hablado sobre ello en alguna ocasión. Si los rumores y las estimaciones son ciertas, será uno de los superordenadores más potentes del mundo, si no el que más. Dojo usará su propia arquitectura optimizada para entrenar redes neuronales, no será un cluster GPU como este último. Se espera que esté listo el año que viene.
Actualmente el superordenador más potente del mundo es el japonés Fugaku. No obstante, si nos centramos únicamente en inteligencia artificial y redes neuronales, NVIDIA recientemente presentó uno con 6.000 GPUs A100.
Vía | Interesting Engineering
Ver 30 comentarios
30 comentarios
eltoloco
El problema de conducción autónoma no es tanto la potencia de los súper computadores para entrenar las IAs sino la dificultad de desarrollar un algoritmo de aprendizaje que pueda manejar tantos parámetros diferentes y tenga un error mínimo que tienda a 0, pues cada fallo es un accidente potencial.
Trocotronic
Poco me parece.
MrKarate
Que la pongan a diseñar también, estoy seguro que lo hará mejor que el ciego que ha diseñado la cybertruck...
thor_pedo
El ranking histórico del Top500 se basa en HPL de FP64 (punto flotante de doble precisión) y este supercomputador no se ubicaría #5 en ese ranking.
La lista Top500, salvo que cambie la semana que viene en el ISC21, sólo recoge los benchmarks HPL, HPCG y Green500. HPL-AI es un benchmark relativamente nuevo (Nov 2019) y hay muy pocos sistemas listados como tal.
O sea, que el efecto marketiniano de decir que Tesla tendría el supercomputador #5 del mundo no deja de ser eso: marketing. Sin ir más lejor Perlmutter de NERSC es más potente que está máquina. El empeño de los que no pueden conseguir los Exaflops en FP64 de conseguirlos con FP16 es un poco vergonzoso.
https://www.top500.org/
Atentos al Top500 la próxima semana.
silentblock2o
Ahora sólo queda embarcarlo en un coche...
Escepticum
Bueno, asusta ver tanto despilfarro energético puesto a disposición de una IA destinada a sustituir las aptitudes de un conductor. ¿De verdad que es necesario tanto consumo eléctrico y contaminación ambiental para que los ricos que se pueden permitir el lujazo de un teslita no tengan que echar mano al volante? Porque cuánta más tecnología y cuánto más litio, o lo que sea, que tengan los VE - que serán los únicos autorizados a circular en un futuro a medio plazo, -está claro que el precio que tengan va a estar "acorde".
¿el futuro de los coches que vienen?: para gente corriente y moliente va a ser que NO.