GPT-3 de Open IA causó revuelo hace unos meses cuando impresionó al mundo por sus capacidades para generar contenido. Con 175 millones de parámetros GPT-3 parecía una auténtica bestia, ahora un nuevo modelo de aprendizaje profundo chino hace eso y más gracias a sus 1.750 millones de parámetros.
La Academia de Inteligencia Artificial de Beijing (BAAI) dio a conocer la versión más reciente de su modelo de aprendizaje profundo preentrenado en un evento sobre IA en Beijing. Conocido como Wudao (significa "comprensión de las leyes naturales"), este modelo es el más grande del mundo con 1.750 millones de parámetros.
La versión inicial de Wudao se presentó en marzo, pero ha sido sustituida rápidamente por una versión mucho más grande, que es esta Wudao 2.0 recién presentada. El propósito ha sido generar la IA más grande del mundo porque según el Dr. Zhang Hongjiang, presidente de BAAI: "el camino hacia la inteligencia artificial general son los grandes modelos y los grandes ordenadores".
Un centro neurálgico para la IA
La intención de Wudao es crear un inteligencia artificial cognitiva general que sea vea reforzada por datos y conocimientos de forma dual. Hacer que la IA piense como un humano y evolucione cognitivamente como la mente de un humano.

Los responsables de BAAI se imaginan un modelo a gran escala y con inmensa potencia informática que permita generar una inteligencia artificial general. Una especie de base central para ofrecer servicios de inteligencia artificial y a la vez alimentarse con más datos y conocimientos.
Según el Dr. Zhang Hongjiang, es análogo a una central eléctrica, que se supone que convierte combustibles (datos en este caso) en energía, en capacidades inteligentes en este caso para alimentar varias aplicaciones de inteligencia artificial". Wudao como punto neurálgico de una red de inteligencia artificial desplegada por toda la estructura tecnológica de la sociedad china.
El factor importante aquí es saber escalarlo y tener la capacidad para ello. Pero en China parecen estar decididos a hacerlo. Como hemos visto, el plan para los próximos años del país es convertirse en líder tecnológico, y ahí la inteligencia artificial juega un papel muy importante. Y el resto del mundo parece estar en su contra.
Vía | Engadget
Ver 64 comentarios
64 comentarios
lenkin
Nunca habria pensado que terminator comiera Wan tun Frito.
nexus7.
¿Qué sentido tiene intentar que una máquina piense como un humano cuando a los humanos los tratamos como a máquinas?
rumpelstisien
Si, habrá que taparse la nariz ante tanto racista/xenófobo
Usuario desactivado
A ver, leyendo el artículo se entiende pero estaría bien que con este tipo de términos explicarais qué es un "modelo de aprendizaje profundo" porque sino, suena a chino (¡chispum!).
Usuario desactivado
Bueno, después de lo de Wuhan, sólo podemos esperar que se les escape Skynet.
Perdón, "Tiān wǎng".
grilli1962
Voy a esperar, el análisis del youtuber español "Dot CSV" lo mas serio en este tema en el mundo en las IA.
pandiloko
La bandera de china a toda plana no entiendo muy bien a qué viene. Cada vez que se anuncia algún avance en España o en otro país también se pone su bandera en primera plana?
nexus01
Intuyo que el resto del mundo va a comer datos y programas de Wudao en el futuro. Con la nariz tapada, eso si.
moskman
nos trajeron el covid y ahora nos traen a skynet chinchulancha.
alvaro1962
Ya bastante malo seria un Skynet occidental...
Ni me quiero imaginar lo que puede llegar a ser un Skynet chino, por dios...
Gerardo
Nos comen los chinos!
Brutal, a punto de encontrar la singularidad.
Esperemos que no sea un chino dentro de una caja
rumpelstisien
Enhorabuena, has batido el récord diario de tonterías en un solo comentario.
stantley
Bufffff, ya solo falta que le llamen Skynet
Escepticum
La verdad, me ha parecido más didáctico el comentario de un tertuliano, p2dzca sobre el deep learning que el propio artículo, que en suma, hay que reconocer abordaba un tema interesante y se podía haber currado un poco más.
maickolamador
este articulo como casi todos ultimamente en xataka, esta herrado, si bien hay k darle merito a la proesa de beiging, el modelo no es el de gpt-3, sino el de google switch transformers que es una version vitaminada( tiene severis cambios) de gpt-3, para una escala de trillones de parametros, la cual google probo y publico a principios de enero con 1,6 trillones de parametros. Se rumorea que ya google esta entrenando otro modelo aun mas grande (~27trillones de parametros basándose en su arquitectura) aun asi hoy dia todos los que vivimos en TIER 1 estamos usando atravez de google search este mega modelo y asi como en google assistance.
https://www.kdnuggets.com/2021/01/google-trillion-parameter-switch-transformer-model.html
unopai
Cuando vea los resultados de esta AI entonces hablamos, por tener mas parametros no tiene por que funcionar mejor que la de OpenAI.
No sé rick, me suena a propaganda...