La IA ha echado al traste los planes de Google para ser sostenible. Su plan para remediarlo: las "cuatro M"

  • La electricidad que gasta la IA en su entrenamiento y sus respuestas es un monstruo cada vez más preocupante

  • Google propone una estrategia de cuatro frentes para atacar el problema: modelo, máquina, mecanización y mapeo

Hay una creciente preocupación por la demanda energética, el consumo de agua y la huella de carbono de la inteligencia artificial. No es catastrofismo de sofá, sino una realidad que ejerce cada vez más presión sobre la red eléctrica y que ha obligado a la Agencia Internacional de la Energía a convocar una cumbre mundial. Google propone una estrategia de cuatro frentes para atacar el problema.

Las cuatro "M". En una investigación publicada por el IEEE, Google identifica cuatro prácticas, que denomina "las 4M", con las que, afirma, las grandes compañías de IA pueden reducir entre 100 y 1.000 veces la huella de carbono de sus algoritmos de aprendizaje automático:

  1. Modelo: usar arquitecturas de aprendizaje automático más eficientes para reducir la necesidad de cómputo entre 3 y 10 veces
  2. Máquina: usar hardware especializado en inteligencia artificial para mejorar su eficiencia de 2 y 5 veces
  3. Mecanización: preferir computación en la nube a computación local para reducir la demanda de energía entre 1,4 y 2 veces
  4. Mapeo: optimizar la ubicación de los centros de datos según la energía limpia disponible para reducir las emisiones de 5 a 10 veces

David Patterson, investigador de Google Research y autor principal del estudio, dice que la huella de carbono asociada al entrenamiento de la IA se reduciría en vez de ir en aumento siguiendo esta cuatro prácticas.

M de Modelo. A nivel de arquitectura, los nuevos modelos de IA incorporan cada vez más avances orientados a mejorar su eficiencia. Google, Microsoft, OpenAI o Meta usan la técnica de "destilación de conocimiento" para entrenar modelos más pequeños que imitan a un modelo grande, el "maestro", demandando menos energía.

Se siguen entrenando modelos cada vez más grandes, muchos de los cuales no están disponibles para los usuarios, pero en el caso de Google, el entrenamiento de estos modelos representa un 40% de la demanda energética, mientras que la "inferencia" de los modelos disponibles para los usuarios (el procesamiento de las respuestas) representa un 60%.

Aunque suene contraintuitivo, los últimos modelos multimodales lanzados al público, como Gemini 1.5 Pro y GPT-4o, también son más eficientes que sus predecesores gracias a su capacidad de aprovechar diferentes modalidades de entrada, como imágenes y código: aprenden con menos datos y ejemplos que los modelos basados ​​en solo texto.

M de Máquina. La enorme mayoría de empresas que desarrollan IA compran su hardware a Nvidia, que tiene chips especializados. Pero cada vez más compañías optan por el "modelo Google" de desarrollar su propio hardware, como Microsoft, OpenAI y en China, Huawei.

Google lleva años utilizando sus propias "TPU" (unidades de procesamiento tensorial, especializadas en IA). La última generación se llama Trillium, fue anunciada en mayo y es un 67% más eficiente energéticamente que la anterior, lo que significa que puede realizar más cálculos con menos energía, tanto en el entrenamiento y la afinación como en la inferencia de IA en los centros de datos de Google.

M de Mecanización. Otra idea contraintuitiva. La computación en la nube consume menos energía que la computación en un centro de datos local. Los centros de datos de la nube, especialmente los dedicados a la IA, contienen decenas de miles de servidores más que los centros de datos de una organización específica, y están diseñados con mejores sistemas de distribución de energía y refrigeración, ya que pueden amortizarlos.

Con el inconveniente de confiar los datos a las grandes empresas de la nube, como Amazon, Microsoft o Google, los centros de datos de la nube tienen otra ventaja clara: son más modernos, lo que significa que tienen máquinas más especializadas en el entrenamiento y la inferencia de IA.

M de Mapeo. Otra razón por la que Google pide más computación en la nube y menos computación local es el compromiso de estas empresas con las energías renovables. Algunos de estos grandes centros de datos ya operan con un 90% de energía libre de carbono.

Las grandes tecnológicas ubican sus nuevos centros de datos en lugares donde los recursos renovables son abundantes, incluida el agua empleada en la refrigeración de los servidores, y gracias a esto empresas como Google, Microsoft y Apple están igualado el 100% de la electricidad de sus operaciones con energías renovables, y aspiran a cero emisiones netas para finales de esta década.

Por otro parte, empresas como Microsoft y OpenAI no tienen claro que la oferta de renovables pueda igualar a la demanda creciente de energía y ya apuestan por expandir la capacidad nuclear, ya sea con pequeños reactores modulares o invirtiendo en investigación de fusión.

Imagen | Google Cloud

En Xataka | La red eléctrica se está resintiendo, y no por los coches eléctricos: por la enorme demanda de inteligencia artificial

Ver todos los comentarios en https://www.xataka.com

VER 3 Comentarios

Portada de Xataka