Hace meses que Elon Musk se prepara para intentar ganar la batalla de la IA. Ahora ha dado un paso más en esa dirección, y acaba de poner en marcha un gigantesco clúster que cuenta con 100.000 GPUs NVIDIA H100 y que será crucial para entrenar su próximo modelo de IA.
Obsesión con la IA. Tras su historia de desamor con OpenAI, el magnate creó xAI en 2023 para lograr competir en este mercado. A finales de ese año lanzó Grok, su particular (y sarcástico) rival a ChatGPT, y meses después intentó ganarse a los desarrolladores abriendo la mayor parte del proyecto como código abierto.
100.000 GPUs NVIDIA H100. Musk anunciaba hace unas horas la puesta en marcha del "Memphis Supercluster", que inició su actividad con 1.000 tarjetas gráficas NVIDIA H100 con refrigeración líquida. Según sus palabras, se trata del "clúster de entrenamiento IA más potente del mundo". El proyecto se ha llevado a cabo con la colaboración de Supermicro: su CEO, Charles Liang, felicitó a Musk en ese mensaje tras poner en marcha el clúster.
Hambre de tarjetas. El creador de Tesla y SpaceX lleva meses comprando estas tarjetas tanto para xAI como para entrenar sus sistemas de conducción autónoma en Tesla, aunque recientemente parece que parte de ellas fueron desviadas a X.
xAI tendrá nuevo modelo en diciembre. A continuación Musk aseguró que "este es una ventaja significativa para entrenar la IA más potente del mundo en todas las métricas" y aseguró que estará disponible en "diciembre de este año". Se refiere probablemente a Grok3, la tercera generación de un modelo que de momento sigue sin tener la popularidad que sus competidores.
Musk no ha querido esperar. En The Information se habló hace dos meses de cómo Musk preparaba una "Gigafactoría de la Computación". Se valoraba entonces la posibilidad de que hiciera uso de las nuevas tarjetas B200, pero Elon Musk parece no haber querido especial a pesar de la teórica ganancia de potencia y eficiencia.
Este "supercomputador" teóricamente lideraría la lista Top500. El gigantesco Memphis Supercluster se podría convertir de repente en el líder absoluto de la lista Top500, al menos si nos fijamos en ese número de GPUs y su potencia.
Los supercomputadores más potentes del mundo no disponen de tantas GPUs: Frontier tiene 37.888 GPUs de AMD, Aurora tiene 60.000 de Intel y Microsoft Eagle tiene 14.400 de estas NVIDIA H100. Todos se quedan pequeños ante este nuevo "monstruo", aunque no queda claro si su foco específico en el entrenamiento de modelos de IA hará que aparezca en las próximas ediciones de esa prestigiosa lista con los supercomputadores más potentes del mundo.
Imagen | xAI
Ver 11 comentarios