Las empresas de IA están perdiendo un dineral. Esperan recuperarlo con una técnica sencilla: suscripciones cada vez más caras

El coste de operar este tipo de sistemas es tan alto que las empresas comienzan a apuntar a una dirección: suscripciones cada vez más caras

Altman
2 comentarios Facebook Twitter Flipboard E-mail

Usamos ChatGPT, Claude, Copilot o Gemini para generar por IA respuestas a nuestras preguntas como si no pasara nada. Después de todo en muchos casos es gratis, ¿no? Lo es para los usuarios de momento, sí, pero todas esas respuestas —no hablemos ya de imágenes o vídeos generados por IA— les cuestan muchísimo dinero a estas empresas. ¿Cuánto? Ninguna lo dice.

Quemando dinero. Ya hemos hablado de que tanto OpenAI como el resto de empresas que han apostado por la IA están quemando el dinero como si no hubiera mañana. Sam Altman indicó hace poco que OpenAI no será rentable hasta 2029, pero hasta entonces —si llegan— seguirán perdiendo dinero. Mucho. Un análisis de algunos analistas revela como la gestión y operativa de modelos de IA tiene un coste descomunal, y por ejemplo OpenAI tendrá pérdidas estimadas de 5.000 millones de dólares... ¡solo en 2024!

Difícil averiguar el coste real de la IA. Las empresas no han dado apenas datos sobre el coste interno de operar estos servicios, aunque en The Washington Post indicaron en junio de 2023 algo que probablemente sea cierto: los chatbots de IA pierden dinero cada vez que los usas. Algunos estudios independientes apuntaban ya en 2023 a que el coste de una simple pregunta en ChatGPT era de 36 centavos de dólar, y que OpenAI se gastaba 700.000 dólares al día para mantener en funcionamiento su LLM.

Y ahora los modelos quieren razonar (y eso cuesta más). El lanzamiento de o1, el modelo de OpenAI que "razona", ha sido el pistoletazo de salida para una alternativa que teóricamente se equivoca menos y que aunque tarda más en dar la respuesta, lo hace de forma más completa y precisa. Pero también más cara: estos sistemas generan en realidad varias respuestas, las analizan y revisan y se quedan con aquella que consideran más adecuada para mostrarla al usuario. Y eso es más costoso para la empresa de IA y para el usuario.

Por eso la suscripción de 200 dólares al mes es solo el principio. Que OpenAI haya lanzado una suscripción de 200 dólares al mes para poder usar sin limitaciones su modelo que razona, o1, es una buena señal de costoso que es para la empresa ofrecer una "barra libre de inteligencia artificial". Ciertos usuarios y escenarios sacan partido intensivo de los chatbots de IA, y será en esos casos donde las empresas podrán abogar por ofrecer suscripciones cada vez más potentes... y caras.

Captura De Pantalla 2024 12 13 A Las 12 16 00 Se estima que el coste de gestionar preguntas en un modelo de IA es enorme en Google. Si gestionaran el 10% de las que gestionan ahora con IA y las respuestas fueran de 50 palabras, tendrían que gastar 1.200 millones de dólares. Imagen: Reuters.

Pero para imágenes y vídeos, el coste es aún superior. Generar texto es la tarea menos exigente en recursos, y aun así es cara. Es difícil estimar también ese aumento del coste porque hay muchos factores en juego: eficiencia de los servidores, complejidad y resolución de la imagen o el vídeo, etc. Aun así, es probable que generar una imagen tenga un coste varios órdenes de magnitud más caro que un texto, y que generar un vídeo tenga un coste también varios órdenes de magnitud más que generar una imagen. 

Mucha energía... John Hennessy, uno de los directivos de Alphabet, explicó en Reuters que las respuestas generadas por un LLM consumen 10 veces más energía que una búsqueda convencional de Google. Las implicaciones son enormes —también para el medioambiente—, y de hecho se estima que el consumo de energía podría triplicarse en 2030. Sobre todo, por los centros de datos que se están construyendo y que se encargarán de gestionar todas esas peticiones. Google y Microsoft ya consumen ellas solas más que 100 países distintos.

... y agua. Hay también un problema con el agua necesaria para refrigerar esos centros de datos. Según un estudio publicado por The Washington Post, pedirle a la IA que nos escriba un correo electrónico de 100 palabras se traduce en un consumo de 519 mililitros de agua.

Buscando la eficiencia. Por supuesto la esperanza es que esos costes de entrenamiento e inferencia se vean reducidos de forma notable en el futuro. El desarrollo de nuevos chips, de centros de datos más eficientes —y que no gasten agua, como los que ha diseñado Microsoft— puede ayudar a ello.

IA en local. La otra alternativa que puede ayudar será la progresiva adopción de modelos "Edge AI" que se ejecutan en local. Apple Intelligence es un buen ejemplo, y aquí la empresa plantea usar ciertas funciones —ojo, no todas— directamente en el dispositivo, lo que permite no solo ahorrar energía, sino también garantizar la privacidad de nuestras peticiones y conversaciones con el móvil o el ordenador.

Imagen | Xataka con Grok

En Xataka | OpenAI ha roto su techo. Su plan Pro es un salto al ultrapremium que tiene todo el sentido del mundo

Inicio