Aquí el que no corre vuela. Muchas son las empresas que están tratando de coger el tren de la inteligencia artificial generativa, y entre los movimientos más interesantes está el de los rivales de ChatGPT. No los comerciales, no: los personales y que comienzan a aparecer con licencias Open Source para que cualquiera los use libremente. Ya tenemos un ejemplo prometedor.
StableLM. Así se llama el modelo creado por Stability AI, la misma startup responsable del fantástico Stable Diffusion para generar imágenes. Ahora han hecho algo similar con StableLM, un modelo de IA conversacional que trata de rivalizar con ChatGPT y que lo hace además con un modelo Open Source.
Ya puedes probarlo. El código de este modelo está en versión alpha, pero ya se puede probar a través del código en GitHub o directamente vía HuggingFace, una plataforma que permite hospedar estos modelos de IA y también código. Según Stability AI, los modelos de StableLM disponible pueden generar tanto código como texto y demostrar que incluso con un tamaño relativamente pequeño "se puede ofrecer un gran rendimiento con el entrenamiento apropiado".
¿Cómo lo han entrenado? Stability AI explica que el entrenamiento se ha realizado con un conjunto de datos llamado The Pile, que aglutina textos de sitios web como PubMed, StackExchange o Wikipedia. Han añadido además un conjunto de datos de entrenamiento adicional que según esta startup ha multiplicado el tamaño de The Pile por tres. Aquí hay que señalar que Stability AI está ahora mismo inmersa en demandas legales por haber entrenado a Stable Diffusion con imágenes de repositorios no públicos como el de Getty Images.
Inventa a lo grande. El modelo está dando sus primeros pasos, y eso deja claro por qué no puede competir de momento con ChatGPT y menos aún con GPT-4. En nuestras breves pruebas le preguntamos por Xataka y por la edad de Elon Musk. A lo primero dijo que "es una de las herramientas mátemáticas más importantes y mejor conocidas de India". A lo segundo, dio una fecha de nacimento errónea y calculó terriblemente mal su edad incluso con esa fecha y con la fecha que teóricamente tiene como actual (31 de octubre de 2021). Otros usuarios que han compartido sus primeras impresiones coinciden: es interesante, pero aún está verde.
Modelos. De momento hay modelos disponibles con 3.000 y 7.000 millones de parámebtros, y pronto los seguirán los modelos con 15.000 y 65.000 millones, lo que debería mejorar la precisión de las respuestas (GPT-3 tiene 175.000 millones, por ejemplo). StableLM hace uso de una licencia CC BY-SA-4.0, lo que significa que entre otras cosas se permite el uso de este motor de IA para fines comerciales.
StableLM, compórtate. Aunque en Stability AI no lo indican, el conjunto de datos The Pile contiene textos con lenguaje tóxico, así que no parece descabellado pensar que es posible forzar a este chatbot a que acabe conversando de forma tóxica, al estilo de DAN. En el anuncio oficial indican cómo "las respuestas que los usuarios reciben pueden ser de calidad variable y podrían potencialmente ofrecer un lenguaje o una perspectiva ofensiva. Esto se espera que mejore con el escalado, mejores datos, comentarios de la comunidad y optimización".
El primero de muchos. Lo cierto es que este tipo de proyectos no para de crecer. ya vimos un primer gran intento con LLaMA, Anthropic tiene a Claude, y existen otros esfuerzos destacables en el campo de los chatbots Open Source como Alpaca, de la Universidad de Stanford. Eso sin contar productos derivados como Auto-GPT o BabyAGI, que intentan plantear inteligencias artificiales más autónomas.
En Xataka | “Es peor que inútil”: Google pidió a sus empleados probaran Bard y algunos lo destrozaron, según Bloomberg
Ver todos los comentarios en https://www.xataka.com
VER 6 Comentarios