En octubre de este año DeepMind (la empresa de inteligencia artificial de Alphabet) nos sorprendió a todos con AlphaGo Zero. Esta nueva versión de su inteligencia artificial había aprendido a jugar al Go sin la ayuda de los humanos y en cuestión de horas era la mejor del mundo. No se ha conformado con el Go, ahora también es la mejor del mundo en ajedrez y en shogi (ajedrez japonés). Pero su meta final no es ser la campeona en todos los juegos de mesa, sólo se está entrenando.
En un nuevo _paper_ publicado por la compañía se describe cómo la segunda versión de AlphaGo Zero, AlphaZero, ha aprendido a jugar a otros juegos de mesa. Para el Go se le dieron tan sólo las reglas de juego, y en unas horas ya había ganado a AlphaGo por 100 victorias a 0. Se entrenó sola hasta ser la mejor. Con AlphaZero y el ajedrez ha pasado algo similar, conociendo las reglas y entrenándose durante cuatro horas ha tenido suficiente para vencer a Stockfish (uno de los motores de ajedrez más potentes del mundo). Por si esto era poco, con dos horas de entrenamiento en el shogi ya se ha hecho imbatible.
La clave esta en el autoaprendizaje
¿Por qué AlphaZero aprende tantos juegos de mesa? No lo hace por diversión, los ingenieros de DeepMind tienen un propósito mayor, poder aplicar estas técnicas de aprendizaje a muchos otros ámbitos. Todavía están muy lejos de poder conseguir esto, ya que significaría poder ampliar y abrir el pensamiento de AlphaZero hasta tal punto de que sea capaz de aprender cualquier cosa (con muchas más variables que las reglas de un juego), como un humano.
Pero AlphaZero y estas "pequeñas victorias" en juegos de mesa son un primer paso. Esta inteligencia artificial (es una variante de AlphaGo Zero más genérica) se ha desarrollado de tal manera que pueda aprender por si sola y no mediante la experiencia con agentes externos. AlphaZero puede aplicarse a una gama más amplia de campos y temas sin necesidad de enseñarle, por lo que probablemente en las próximas semanas veamos más avances y quizás no solo en juegos de mesa.
La evolución de DeepMind con sus motores de inteligencia artificial es constante. En marzo de este año vimos cómo ya era capaz de recordar y utilizar lo aprendido en nuevas tareas. Posteriormente DeepMind nos enseño cómo quieren aplicarla para detectar signos iniciales de enfermedades oculares crónicas. También ha jugado al Starcraft II y en octubre como vimos aprendió a jugar al Go por si sola. Lo dicho, sólo se está entrenando.
Más información | MIT Technology Review
En Xataka | La nueva versión de AlphaGo (que aprende de sí misma, no de los humanos) superó a la antigua versión 100 victorias a 0
Ver todos los comentarios en https://www.xataka.com
VER 9 Comentarios