Google tiene claro que el futuro de la programación pasa por los robots. Y está más cerca de conseguirlo

Sobre si la inteligencia artificial acabará o no quitándonos el trabajo y a dónde llegará en los próximos 10 años hay mucho escrito. Desde el equipo de robótica de Google quieren que los robots sean aún más autónomos, y ya andan trabajando en un modelo para que puedan escribir su propio código. Esto abre las puertas a que los robots puedan ejecutar tareas más complejas con la expresión completa de lenguajes como Python.

También abre la puerta a que se comporten de forma indebida, aunque hay una forma de controlarlos.

Mediante modelos de lenguaje de última generación, como PaLM, Google asegura que es posible escribir no solo código genérico, sino también código capaz de controlar las acciones de los robots. Tras programar varias instrucciones y combinarlas con estos modelos, dichos modelos pueden generar de forma autónoma nuevo código.

Google explica que, dado el código para una tarea, es posible recomponer llamadas a las API para crear nuevos comportamientos para nuevas tareas. Es decir, utilizar las mismas funciones para otras tareas. Como ejemplo, nos indican el recomponer la orden "si ves una naranja, muévete hacia atrás" a "muévete a la derecha hasta que veas la naranja".

Estos modelos de lenguaje son capaces de utilizar la expresión completa del código de Python, pudiendo crear código para nuevas tareas dadas las instrucciones del lenguaje natural. Explica Google, del mismo modo, que el potencial de estos modelos es enorme para ser cada vez más precisos con robots que ejecutan la misma tarea, aunque tengan distinta morfología.

Según la compañía:

"La flexibilidad también aumenta los riesgos potenciales, ya que los programas sintetizados (a menos que se comprueben manualmente por tiempo de ejecución) pueden resultar en comportamientos no deseados con el hardware físico".

Y sí, que los robots se programen ellos solos tiene consecuencias. Google cuenta que la flexibilidad también aumenta los riesgos potenciales de que el hardware se comporte de forma no deseada. Para evitar estos riesgos proponen controles de seguridad integrados en los robots, aunque admiten que "se necesita más trabajo" para que estas aplicaciones sean más seguras.

Más información: Google AI Blog

Ver todos los comentarios en https://www.xataka.com

VER 4 Comentarios

Portada de Xataka