“GPT-4 para detectar los errores de GPT-4”, con estas palabras ha presentado el presidente de OpenAI, Greg Brockman, la más reciente propuesta de la compañía de inteligencia artificial para mejorar su modelo insignia en el campo de la programación. Estamos hablando de CriticGPT, un modelo basado en GPT-4 diseñado específicamente para detectar errores en la salida de código de ChatGPT.
La firma respaldada por Microsoft asegura que CriticGPT ha demostrado ser muy efectivo para ayudar a las personas a detectar errores en las respuestas del famoso chatbot. En pruebas internas, explican, los resultados de las personas que recibieron la ayuda de CriticGPT superaron en un 60% a las que hicieron el trabajo en solitario. Ahora, este modelo está listo para pasar a la siguiente etapa.
Una nueva herramienta para el aprendizaje por refuerzo
En las tareas de entrenamiento de modelos como GPT-4 entra en escena lo que se conoce como aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). Se trata de una técnica de machine learning que, en líneas generales, utiliza respuestas creadas por humanos, los llamados entrenadores de la IA, para mejorar la precisión del modelo para determinadas tareas.
OpenAI comenzará a desplegar modelos similares a CriticGPT entre sus entrenadores para ayudarles a detectar los errores cada vez más sutiles que suele reproducir GPT-4 a través de ChatGPT. “Este es un paso para poder evaluar los resultados de los sistemas avanzados de IA que pueden ser difíciles de calificar para las personas sin mejores herramientas”, ha dicho la compañía en su blog.
Pero, ¿cómo funciona CriticGPT? Como podemos ver en la imagen de arriba, el modelo escribe “críticas” a las respuestas de ChatGPT. Estas críticas no siempre son correctas, pero pueden ayudar a los entrenadores humanos a visibilizar problemas que podrían haber pasado desapercibidos. OpenAI describe a esta mecánica como una “asistencia” para el proceso de RLHF.
CriticGPT, al estar basado en GPT-4, también pasó por el proceso de aprendizaje por refuerzo a partir de la retroalimentación humana. Por curioso que parezca, a la luz de las pruebas, parece ser una buena idea para que ChatGPT basado en GPT-4 mejore en tareas de programación, campo donde algunos estudios han alertado el importante porcentaje de respuestas incorrectas del modelo.
La compañía también está tratando de mejorar la seguridad de sus modelos después de la disolución de su equipo de "superalineación". Para ello tiene un comité que está liderado por Sam Altman. Una de las misiones de este comité es presentar recomendaciones al consejo de administración presidido por Greg Brockman, pero de la compañía que tiene como CEO a Sam Altman.
Imágenes | OpenAI | Milad Fakurian | Village Global
Ver 2 comentarios