La firma dirigida por Sam Altman todavía está entrenando el nuevo modelo
No obstante, algunas compañías ya han comenzado a probarlo para dar feedback
¿Recuerdas cuál fue la sensación que experimentaste cuando usaste ChatGPT por primera vez? Para muchas personas fue como mirar por una ventana hacia el futuro, y no les faltaba razón. El lanzamiento de aquel chatbot basado en GPT-3.5 desató una auténtica carrera entre las compañías tecnológicas más importantes del planeta por liderar el desarrollo de la inteligencia artificial.
Han pasado aproximadamente 15 meses desde ese entonces, y esta incipiente industria ha evolucionado a pasos agigantados. OpenAI volvió a sorprender al mundo en marzo de 2023 con GPT-4, un modelo avanzado que impulsa ChatGPT Plus y Microsoft Copilot. Pero los competidores de la firma dirigida por Sam Altman no han dejado de crecer, y han aparecido otros modelos.
OpenAI, GPT-5 y el desafío de seguir liderando
En el último tiempo hemos asistiendo a la presentación de alternativas como Claude 3 de Anthropic, Llama 2 de Meta y Gemini 1.5 de Google. No es ningún secreto que esta tendencia podría empañar el liderazgo de OpenAI, pero todo parece indicar que la compañía estadounidense está preparándose para mover ficha una vez más. La respuesta a este escenario sería un modelo llamado GPT-5.
OpenAI no ha dado señales de su próximo gran lanzamiento, aunque cierta información del proyecto parece estar filtrándose. Según fuentes consultadas por Business Insider, el GPT-5 es una realidad, aunque todavía no está listo para ser lanzado al público. La compañía detrás del modelo todavía necesita completar ciertas tareas antes de que esté disponible, pero eso podría ser muy pronto.
Actualmente, algunos clientes empresariales han recibido muestras de GPT-5, así como una versión mejorada de ChatGPT basada en este modelo, con el objetivo de evaluarlo. En paralelo, OpenAI continúa con el entrenamiento del modelo. Si todo sale de acuerdo a lo esperado, según las fuentes, GPT-5 podría aparecer en escena en algún momento a mediados de este año, es decir, para el verano.
No hay demasiados detalles filtrados sobre las posibles mejoras de GPT-5, aunque se cree que esta nueva versión del modelo será capaz de mejorar muchas de las carencias de GPT-4. Recordemos que la versión actual ha presentado problemas de rendimiento y, en algunos casos, las calidad de sus respuestas se ha degradado. Por otra parte, también sigue teniendo problemas de alucinaciones.
Tampoco ha trascendido el posible tamaño de GPT-5, aunque esta semana han salido a la luz datos de GPT-4 que pueden ayudarnos a entender por dónde podrían ir los tiros. OpenAI, que nació como una compañía sin ánimos de lucro, adoptó un enfoque comercial, lo que derivó en que sus proyectos ahora tienen secretos comerciales. Así que poco hemos sabido sobre los detalles técnicos de GPT-4.
En la Conferencia de Desarrolladores GTC 2024, NVIDIA anunció sus últimos avances en inteligencia artificial. Una de las diapositivas, curiosamente, desveló uno de los datos que OpenAI había mantenido en secreto: el tamaño de GPT-4. Según la compañía de hardware, GPT-4 es un modelo de 1,8 billones de parámetros, es decir, unas 10 veces más grande que GPT-3 y sus 175.000 millones de parámetros.
Ahora bien, había rumores de que GPT-4 podría ser tan inmenso, pero, en caso de utilizar la misma arquitectura de GPT-3, esto se traduciría en más problemas que soluciones. Se sospechaba que OpenAI podría haber utilizado una arquitectura conocida como MoE (Mixture of Experts), que aborda este problema con la distribución de la carga computacional en diferentes módulos “expertos”. Y se ha confirmado que GPT-4 es un MoE.
Como decimos, no sabemos qué tan grande (¿o pequeño?) será GPT-5, pero el hecho de que OpenAI esté trabajando con MoE elimina una de las principales barreras de hacer modelos inmensos. Ciertamente, la compañía tendrá muchos otros desafíos, que posiblemente descubriremos a lo largo de los meses. Algo que sí sabemos es que Microsoft está destinando millones de dólares para sus centros de datos.
Y los modelos de IA de OpenAI se entrenan y funcionan desde la plataforma de computación en la nube Microsoft Azure AI. El gigante de Redmond ya había realizado una importantísima actualización cuando empezó a adoptar las GPU NVIDIA H100. Pues bien, esto es parte del pasado. Hace literalmente dos días los de Redmond anunciaron la incorporación de las bestiales GPU NVIDIA GB200.
Imágenes | Rolf van Root | OpenAI
Ver todos los comentarios en https://www.xataka.com
VER 18 Comentarios