La nueva API de GPT-4 Turbo es hasta tres veces más barata
Pero por ejemplo la suscripción a ChatGPT Plus sigue manteniendo su precio. La clave aquí es retener y atraer a los desarrolladores
En su llamativa conferencia para desarrolladores, el DevDay de OpenAI, Sam Altman anunció dos novedades importantes: el lanzamiento de GPT-4 Turbo y la prometedora puesta en marcha de su propia tienda de aplicaciones, la GPT Store. En realidad había otra sorpresa: una bajada de precios que, eso sí, no es para todos.
Guerra de precios. Tras la presentación de GPT-4 Turbo, Sam Altman dedicó unos minutos a dar una de las sopresas más agradables de la jornada: la reducción de precios de la API de este chatbot, que ahora es tres veces más barata para los tokens de entrada (lo que hace que podamos por ejemplo usar largos textos para que los resuma y eso no nos cueste un dineral) y dos veces más barata para los tokens de salida (GPT-4 Turbo puede dar respuestas el doble de largas que antes al mismo precio).
Pero solo para la API. Lamentablemente, esa reducción de precio afecta a la API, pero no a los usuarios finales: la suscripción a ChatGPT Plus, por ejemplo, no se vio afectada. La medida está dirigida a desarrolladores de soluciones basadas en GPT-4 Turbo, y es una forma directa y potente de convencer a esos desarrolladores de que apuesten por esta solución.
Más barato, pero además mejor. Esa versión supervitaminada llamada GPT-4 Turbo no solo reduce sus precios, sino que es más potente y versátil que GPT-4. Para empezar, tiene una ventana de contexto de hasta 128k tokens, algo fantástico, pero además está más actualizada (hasta abril de 2023) e integra en la API tanto DALL-E 3 como GPT4-V (entradas de imágenes) y Whisper. Las respuestas son además hasta dos veces más rápidas, lo que demuestra la evolución del modelo.
Pero los competidores aprietan . Los precios de las alternativas son aún mejores: GPT-4 Turbo cobrará 3 dólares por un millón de tokens de entrada (ventana de contexto de 16K tokens), mientras que PaLM 2 cobra 0,5 dólares por cada millón de caracteres (un token consta de varios caracteres, así que es difícil equiparar y no especifican ventana de contexto). Claude 2 cobra 11,02 dólares por cada millón de tokens (pero con una ventana de contexto de 100K tokens, mucho más potente). Y luego tenemos LLaMA 2 de Meta, que es Open Source y está disponible de forma totalmente gratuita.
Si no puedes con tu enemigo, baja precios. La medida es una singular amenaza para los actuales competidores de OpenAI. Entre ellos destacan Google y su LLM PaLM 2, pero también a una cada vez más interesante Anthropic (en el que han invertido tanto Google como Amazon). Aquí es evidente que lo que OpenAI quiere es que su API sea la más popular entre quienes desarrollan aplicaciones de inteligencia artificial. Como diría Ballmer: "Developers, developers, developers!".
Los chatbots deberían abaratarse. Si a las empresas les sale más barato ofrecer sus chatbots y aplicaciones de IA basadas en GPT-4 Turbo, lo razonable sería que esos chatbots también bajaran el precio, pero no está claro que eso suceda porque todos están empezando a hacer caja de verdad con estas soluciones. Tenemos un buen ejemplo en Microsoft y su Copilot 365. La empresa de Redmond, que invirtió miles de millones de dólares en OpenAI y que permite que ésta última se base en la infraestructura de Azure, no va a dejar escapar la oportunidad de rentabilizar su inversión.
Ver todos los comentarios en https://www.xataka.com
VER 1 Comentario