La plataforma permite probar y utilizar todo tipo de modelos de IA
Es una de las herramientas más populares entre desarrolladores e investigadores
Hugging Face evita engorrosas descargas e instalaciones y pone la IA a pocos clics de distancia
Si quieres probar un nuevo modelo de IA generativa, tienes varias opciones. Puede que sus desarrolladores ofrezcan su propio servicio web —como hacen OpenAI, Google, Microsoft, Meta o Anthropic—, pero en muchos casos, sobre todo para desarrolladores Open Source, no es así. Y ahí es donde Hugging Face se ha convertido en absoluta referencia.
Nada de descargas e instalaciones. En Hugging Face han conseguido facilitar el acceso a esos modelos de forma notable. La plataforma, con una estructura que recuerda ligeramente a GitHub, aglutina todo tipo de modelos para que si queremos podamos "desplegarlos" y usarlos como si lo estuviéramos haciéndolo en nuestro propio PC.
Más de un millón de modelos de IA. Como señalan en Ars Technica, la plataforma ya cuenta con más de un millón de modelos de IA disponibles, algo que deja claro el inmenso número de proyectos que han surgido desde que ChatGPT iniciara esa explosión de IA generativa.
Comenzó como un chatbot. Es curioso, pero en sus inicios en 2016 Hugging Face inició su andadura como un limitado chatbot de IA. En 2020, dos años antes antes del lanzamiento de ChatGPT, pivotaron y se convirtieron en un concentrador de modelos de IA con filosofía Open Source. El número de modelos en la plataforma ha crecido de forma espectacular, sobre todo desde el inicio de 2023. El año pasado, eso sí, lanzaron su propio rival Open Source de ChatGPT.
Grandes modelos, pero también pequeños. Clement Delangue, cofundador y CEO de la empresa, celebraba el hito destacando que la plataforma ofrece acceso a grandes modelos (Llama, Gemma, Phi, Flux, Mistral, Stable Diffusion, Grok, Whisper, entre ellos), pero "también a otros 999,984".
Que vivan los modelos especializados. Para Delangue el mensaje de "un modelo para dominarlos a todos" es una falacia. Según él, "es mejor disponer de modelos más pequeños, personalizados y optimizados para tu caso de uso, tu dominio, tu lenguaje, tu hardware y, en general, tus limitaciones".
Forks por doquier. Esa labor de "ajuste" y personalización de modelos ha impulsado ese crecimiento de modelos disponibles. Muchos parten de una misma base para luego sufrir modificaciones y procesos de "fine-tuning" a partir de los cuales aparecen modelos derivados, algo así como los forks de proyectos software. Llama, el LLM de Meta, es un buen ejemplo de ello: de él han salido muchísimos modelos derivados y ajustados para casos de uso específicos.
De todo y para todos. En Hugging Face podemos encontrar modelos para todos los gustos. Tenemos chatbots de texto tradicionales y variantes dedicadas a procesar texto, pero también modelos especializados para clasificación de imágenes, o detección de objetos. Su lista con los más descargados y usados es una demostración de esa variedad: el primero es un modelo paraclasificar contenido de audio, mientras que el segundo, BERT (de Google) se usa en proyectos de modelado del lenguaje.
En Xataka | La Ley de IA europea acaba de ser aceptada por más de 100 empresas. Hay dos grandes ausencias: Apple y Meta
Ver todos los comentarios en https://www.xataka.com
VER 3 Comentarios