La reciente hondanada de anuncios por parte de OpenAI ha demostrado el ritmo frenético al que la empresa está trabajando. En los últimos días hemos conocido grandes novedades sobre Sora, ChatGPT Search, ChatGPT en WhatsApp, la disponibilidad masiva de o1 o el reciente o3 como grandes protagonistas. Todo parece irle de perlas a la empresa dirigida por Sam Altman, pero hay algo que probablemente le esté quitando el sueño: GPT-5.
GPT-5 y Orion. La empresa lleva meses trabajando en su próximo gran modelo de lenguaje, con nombre en clave Orion pero que teóricamente será GPT-5. Se supone que el salto en prestaciones respecto a GPT-4 será sensiblemente más grande que el que vimos de GPT-4 a GPT-4o, pero ahí está el problema. De momento, no lo es.
Retrasos y coste colosal. Como señalan en The Wall Street Journal, este proyecto no para de retrasarse, y por ejemplo Microsoft esperaba poder tener acceso a él a mediados de 2024. Hay algo aún peor: su desarrollo está teniendo un coste colosal que no para de crecer. Se estima que cada ronda de entrenamiento dura unos seis meses y cuesta 500 millones de dólares. Según el diario, Altman ya indicó en el pasado que entrenar GPT-4 costó más de 100 millones de dólares.
Dos entrenamientos que no acaban de cuajar. Orion ha sido entrenado con enormes cantidades de datos no una, sino dos veces. A pesar de ello no han parado de surgir problemas: en el segundo intento de entrenamiento se dieron cuenta de que el conjunto de datos no era tan diverso como pensaban. OpenAI había perdido mucho dinero y tiempo para volver a empezar ese proceso, y no está claro si ese segundo entrenamiento acabó siendo encauzado con datos más ricos y útiles.
Esto no compensa de momento. Los investigadores parecen haber quedado decepcionados con el rendimiento del modelo, según fuentes cercanas al proyecto. Aunque se comporta mejor que el actual modelo, sus prestaciones no justifican el enorme coste de desarrollo y ejecución de Orion.
Sutskever ya avisó. Ilya Sutskever, cofundador de OpenAI que dejó la empresa hace meses, declaró en noviembre que entrenar modelos de IA con más y más GPUs y datos ya no sirve de mucho. Las expectativas con respecto a GPT-5 se unen a las de los esfuerzos de otras compañías que teóricamente también están desarrollando chatbots cada vez más potentes. La sensación es que la IA generativa, al menos de este tipo, se está estancando.
Altman y el peligro de las promesas. En julio de 2025 afirmó que GPT-5 podría llegar a finales de 2024 y principios de 2025. De hecho, prometió que el nuevo modelo supondría "un salto significativo" en todo tipo de tareas y temáticas. La expectativa es que GPT-5 podría convertirse en una herramienta tanto científica como cotidiana; una que además cometería menos errores que GPT-4/ChatGPT.
Generando datos de calidad. En OpenAI se encontraron con el problema de que ya no tenían muchos más datos de calidad con los que entrenar el modelo, así que se propusieron crearlos de cero. Contrataron gente para escribir nuevos programas o solucionar problemas matemáticos y luego "conversar" con Orion para explicar esos resultados. Esas explicaciones son también teóricamente valiosas para el desarrollo de un LLM, ya que pueden servir como un "mapa" que permita a los modelos solucionar problemas similares en el futuro. No solo se trata de dar el resultado, sino de revisar cómo se ha llegado hasta él.
Agentes de AI y chatbots que "razonan" al rescate. A pesar de estas dificultades, tanto OpenAI como sus competidores tienen en estos momentos dos grandes tendencias que vuelven a animar este segmento. La primera, la de los agentes de IA que harán cosas por nosotros de forma autónoma. La segunda, la de los modelos que "razonan" y que aun tardando más tiempo logran dar respuestas más correctas. La esperanza es que ambas propuestas acaben desplazando a los chatbots actuales, al menos en parte.
Ver 12 comentarios
12 comentarios
tircooo
¿Humo Altman?
pacoco123
Puede haber otro motivo mucho más terrible
p2dzca
La IA actual necesita una dosis de realismo. Tanto en IA como en la vida de las personas, quien tiene mucho dinero puede permitirse disfrutar en las nubes durante un tiempo, pero antes o después deberá volver a tocar el suelo (ahí está para ejemplificarlo la maravillosa película "Anora").
Hay un mezcla extraña de religión y codicia en la IA generativa. Se busca el santo grial para alcanzar el poder y su anhelo nubla la mente de los feligreses, justo hasta que el milagro se desvanece ante sus ojos y se presenta la realidad mundana: las facturas. Los CEO de las grandes tecnológicas de la IA lanzan sermones prometiendo alcanzar el paraíso en poco tiempo con el fin de obtener las limosnas multimillonarias que recompensarán a los fieles con la vida eterna en forma de dividendos. Antes o después, la realidad se va a imponer. Amén.
p2dzca
(no lo puedo borrar)
algarcia
El problema no es otro, sino que ha llegado el fin de la ley de Moore, en inteligencia artificial. Así como llegó al cerebro humano, llegó a ChatGPT.
Hay un punto, después del cual, no se puede ser más inteligente. Se puede tener más conocimiento, pero no ser más inteligente. Si la evolución no ha evolucionado a una inteligencia superior en los seres humanos, es solo por 2 posibles causas: 1) Simplemente porque "No hace falta" para la sobrevivencia y perpetuación de la especie humana, o 2) Porque la evolución de la inteligencia humana, también llegó a su límite, como todo lo indica.
A fin de cuentas, es un alivio saber, que Skynet no será tan inteligente como en las películas, simplemente será algo tan inteligente como un ser humano, pero con un conocimiento brutal.
marcojara
Igual sigue siendo superior en todo a las demás.
t_r_a
no hay combustible suficiente en el planeta que sea capaz de generar tanto humo como la mierda esta que intentan vender
aerondight420
Todos sabíamos que iba a pasar esto. Sam Altman no es mas que un vendedor.