¿Cuál es el estado de la IA en la actualidad? ¿Qué nos cabe esperar en el futuro? Los enormes esfuerzos en tiempo, recursos y capital humano que se están invirtiendo en esta disciplina hace que el debate sobre el presente y sobre todo el futuro de esta rama de la ciencia está más asentado que nunca.
Las respuestas a esas preguntas no son tan simples como podría parecer, y precisamente nos hemos puesto en contacto con varios académicos en diversas universidades de nuestro país para tratar de aclarar esa situación. Estas han sido sus conclusiones.
Recientemente hemos podido comprobar cómo los avances en Inteligencia Artifical han hecho que salten las voces sobre las realidades y las potenciales amenazas que ese futuro plantea. Para aclarar esa situación hemos podido contar con la participación de los siguientes expertos en esta materia:
- Senén Barro, catedrático del área de Ciencia de la Computación e Inteligencia Artificial en la Universidad de Santiago de Compostela
- Juan Pavón, catedrático del Departamento de Ingeniería del Software e Inteligencia Artificial en la Universidad Complutense de Madrid
- José Manuel Molina, catedrático del área de Ciencia de la Computación e Inteligencia Artificial en la Universidad Carlos III de Madrid
- Holger Billhardt, profesor titular del Departamento de Ciencia de la Computación e Inteligencia Artificial en la Universidad Rey Juan Carlos
- Ramón López de Mantaras, director del Instituto de Investigación de Inteligencia Artificial en el CSIC
- Enrique Carmona, profesor titular del Departamento de Inteligencia Artificial de la UNED
Realidad y optimismo en Inteligencia Artificial
Comenzábamos nuestro cuestionario preguntando a estos expertos si había razones para el optimismo respecto a los resultados a corto y medio plazo en IA. Senén Barro nos indicaba que aunque en otras ocasiones ha habido un optimismo excesivo en el campo, ahora vuelve a haber razones para ese optimismo, pero en esta ocasión "hay un enfoque más pragmático".
Para Juan Pavón esas razones estaban presentes en muchos escenarios actuales, ya que "muchas de las aplicaciones de IA están embebidas en servicios y sistemas que utilizamos comúnmente", pero puntualizaba: " La cuestión es dónde está la frontera de lo que es IA, ya que muchos problemas, una vez resueltos, dejan de ser considerados del ámbito de la IA y pasan a la ingeniería informática más convencional".
José Manuel Molina era también positivo en este sentido, pero matizaba: la IA se puede aplicar cada vez más a entornos reales, nos decía, "pero queda mucho para poder desarrollar una IA que sea capaz de entender la realidad mediante conceptos abstractos y poder interpretar, razonar, tomar decisiones y aprender en múltiples entornos, del mismo modo que lo hacen los seres humanos".
Para muchos de nuestros lectores el objetivo último de la inteligencia artificial puede ser precisamente la creación de una "máquina pensante", como decía Holger Billhardt , pero en ese sentido "la investigación en IA no ha cumplido sus objetivos". Sin embargo, explica, "sí que se han podido crear soluciones 'inteligentes' a problemas concretos", y añadía que "creo que en este sentido la IA ha producido y está produciendo muchos resultados que encuentran su utilidad en productos o aplicaciones reales".
La aplicación de la IA será cada vez mayor en diversos ámbitos, destacaba Ramón López de Mantaras, que citaba campos como el de los coches autónomos, biología molecular y farmacología o aplicaciones relacionadas con la web y las redes sociales, pero era cauto: "solamente podremos ser optimistas con estos progresos si sirven para llevar a cabo aplicaciones socialmente responsables que mejoren la sociedad y nuestras vidas".
Enrique Carmona, por su parte, indicaba que "algunas de las tecnologías en IA están empezando a tener valor económico, es decir, han cruzado la frontera que separa la investigación de laboratorio de la aplicación práctica en el mundo real", y por esa razón creía que las empresas invertirán -como están haciendo- más dinero en reforzar aún más la investigación en IA.
Retos de futuro
En segundo lugar preguntábamos a todos los participantes por los retos de futuro en Inteligencia Artificial. Para el Sr. Barro el principal reto consiste en el aprendizaje máquina: desvelar su potencial supondría para este catedrático lograr acceder a la "clave de bóveda de la IA".
El Sr. Pavón planteaba un reto distinto y quizás más práctico: el de tratar de resolver "la gestión de la creciente complejidad de los sistemas", o lo que es lo mismo, la tarea de gestionar la confianza a esos sistemas que en el futuro actuarán en representación nuestra y en los que tendremos que estar seguros de que lo que automatizan para nosotros lo hacen de la forma correcta. Compleja cuestión, desde luego.
Había distintos retos según la perspectiva para el Sr. Molina, que apuntaba a los que afrontan los modelos teóricos -algoritmos y sistemas que aprendan mejor, que sean más robustos-, la de su aplicación a la realidad -como decía este experto, "que el sistema sea capaz de tomar las decisiones 'mejor' que un humano"- e incluso el reto filosófico, "el reto por excelencia de la IA", y aquí ponía un ejemplo muy gráfico: "Ser capaces de construir máquinas como los replicantes de la película Blade Runner o robots como el de la película ExMachina".
Para el Sr. Billhardt también planteaba retos en distintos ámbitos como el de la capacidad de entender e incluso dotar a esos sistemas de una "intuición", de "ver lo que no se ve", como explicaba, pero también el de la inteligencia social -"la sociedad humana como ente también presenta un comportamiento inteligente"-, o la racionalidad humana. Aquí este experto indicaba que la forma de razonar humana, que a veces no se aplica -tomamos muchas decisiones irracionales- es también difícilmente equiparable.
D. Ramón López de Mantaras cree que el mayor reto es el de "dotar de conocimientos de sentido común a las máquinas" -quizás relacionado con la intuición de la que hablaba su colega-. De hecho, indicaba, "Posiblemente la lección más importante que hemos aprendido a lo largo de los 60 años de existencia de la inteligencia artificial es que lo que parecía más difícil (diagnosticar enfermedades, jugar al ajedrez a nivel de gran maestro, etc) ha resultado ser relativamente fácil y lo que parecía más fácil ha resultado ser lo más difícil".
Para Enrique Carmona había retos más inmediatos que debían ayudar a hacer progresar todas las ramas de la IA, "procesamiento del lenguaje natural, visión artificial, aprendizaje automático, razonamiento automático y robótica", con mejoras en todos los ámbitos que ayudarían a desarrollar ese futuro "robot humanoide" progresar mucho más e incluso, afirma Carmona, "mostrar emociones".
¿Llegaremos a crear máquinas pensantes en el futuro?
Era una de las preguntas clave a nuestros expertos dado el ambiente que se ha generado entorno a la Inteligencia Artificial y todo lo que podría suceder en caso de qu en el futuro esa rama de la ciencia hubiera avanzado tanto. Las opiniones de estos expertos era especialmente interesante dado ellos tienen un criterio especialmente fuerte a la hora de valorar si en el futuro lograremos crear máquinas y robots pensantes y conscientes de ellas y ellos mismos. En realidad la pregunta estaba dividida en dos: si la IA podría equipararse en el futuro con la inteligencia humana, y si las máquinas podrían llegar a tener consciencia de sí mismas.
Para el Sr. Barro la primera pregunta tenía una respuesta clara: "Sí. El cerebro humano todavía es una máquina mucho más poderosa en conjunto que el más potente de los computadores, pero es solo cuestión de tiempo". En cuanto a la segunda tenía más dudas: "lo cierto es que todavía no tenemos apenas información de cómo se construye la conciencia en un ser humano, por lo que es lógico que no sepamos como abordarla desde un punto de vista artificial".
Las cosas no estaban tan claras para el Sr. Pavón, que argumentaba que el debate filosófico plantea aquí barreras. "¿Qué interés tiene hacer una réplica de personas? Se trata de hacer máquinas que puedan hacer cosas que nosotros no podemos o que lo hagan mucho mejor". Aunque aún no hay avances claros en ese aspecto, este experto indicaba que las emociones deben usarse para mejorar la interacción con las personas y para resolver ciertos problemas, algo que ciertos estudios están comenzando a hacer ya.
Aunque el Sr. Molina también tenía claro que la IA ha llegado a equiparar y superar a la humana en muchos ámbitos -"juegan mejor al ajedrez, controlan mejor un vehículo"- las dudas eran enormes respecto a los sistemas autoconscientes, como las que plantean películas de ciencia ficción que mencionaba este experto como "el ejemplo típico de Skynet en Terminator, o el HAL de 2001, donde sin saber cómo la máquina se vuelve autoconsciente". La autoconsciencia es para este catedrático mera especulación y resulta "imposible saber hasta dónde se puede llegar".
Holger Billhardt era optimista en ambos sentidos, y nos indicaba que creía que era posible "crear una máquina cuyo comportamiento pueda equipararse al de los seres humanos", aunque no a corto ni medio plazo, pero sí creía que las máquinas podrían llegar a tener conciencia de sí mismas.
La respuesta negativa llegaba del Sr. López de Mantaras, que explicaba que "por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, de hecho siempre serán inteligencias distintas a las inteligencias humanas ya que las inteligencias dependen de los cuerpos en los que están situadas". En la creación de esas inteligencias distintas a las nuestras que en su opinión son "ajenas a los valores y necesidades humanas", concluía, "nos debería hacer reflexionar sobre las posibles limitaciones éticas al desarrollo de la IA".
Para Enrique Carmona la cuestión era compleja y de hecho dependía de la definición de inteligencia, pero destacaba que aunque hay procesos en los que las máquinas superan al ser humano, "si la inteligencia se ve como un proceso global que integra todas y cada una de las capacidades y habilidades propias de un ser humano y del cual emerge, entre otras cosas, la conciencia, creo que, en este caso, la IA está más lejos de crear este tipo de inteligencia global".
La amenaza de la IA
La creación de esa inteligencia artificial que pueda dotar a máquinas y robots de la consciencia de ellos mismos es vista como un gran peligro por parte de diversas celebridades del mundo de la tecnología, pero queríamos indagar en esa cuestión con estos expertos y saber si esa potencial capacidad podría ser efectivamente una amenaza.
Para Senén Barro esa amenaza existe, "pero más por la intención expresa del diseñador de la máquina o de quien llegue a sabotearla". Algo similar opinaba José Manuel Molina, que afirmaba que "evidentemente si fueran autoconscientes se moverían por sus propios intereses y no estarían supeditados a las necesidades del ser humano, y en esa situación sería imposible saber qué haría el sistema con todas sus capacidades". Aún así habla más de una posible amenaza que de una amenaza real.
Para el Sr. Billhardt esa posibilidad es real, y cree que "podrían existir máquinas 'más inteligentes' que los humanos", e indicaba que "en este sentido, es claramente pensable que las máquinas podrían dominar a los humanos". La solución para este experto es la investigación en IA "que no busque la creación de "entes pensantes", sino la resolución de problemas concretos de la sociedad humana".
Otros creen que esa posibilidad no existe, y el Sr. López de Mantaras creía que "la amenaza de que en unas décadas llegaremos a lo que algunos llaman "singularidad" (es decir el momento en que las inteligencias artificiales serán superiores a las humanas y lo harán todo con lo que los seres humanos seremos prescindibles) no tiene ningún sentido ni se sostiene científicamente". Como explicaba este catedrático,
Los "profetas" de este sinsentido se basan en una hipótesis falsa. Afirman que el progreso científico y tecnológico en Inteligencia Artificial es exponencial lo cual es falso. De hecho los que sabemos cual es el estado del arte en IA podemos demostrar que aunque ha habido innegables progresos, estos son lineales pero no exponenciales. De hecho algunos respetados expertos incluso afirman que los progresos entre principios de los 60 y finales de los 80 fueron más importantes que los que ha habido entre los años 90 y hoy día. Es decir, nada más alejado de la exponencialidad. Olvidémonos de la "singularidad", no llegará en los plazos que estos profetas predicen. Dudo que nunca llegue y si llega lo hará a muy largo plazo (siglos en vez de décadas).
D. Enrique Carmona no daba una respuesta definitiva, pero sí advertía de que los avances logrados hasta ahora sí que han logrado plantear la necesidad de abordar "los diferentes interrogantes e implicaciones que ya están surgiendo como consecuencia del uso práctico de aplicaciones basadas en IA". En ese sentido, concluía, ya hay esfuerzos dirigidos a "garantizar una IA beneficiosa y fiable, y no sólo desde un punto de vista tecnológico sino también desde una perspectiva económica, social, legal, ética y de seguridad"
Mitos, expectativas y futuro real de la IA
Todos estos expertos nos hablaron de campos que parecen especialmente claves para el desarrollo de la IA, con especial atención al aprendizaje automático pero con mención a otros muchos que como nos explicaba el Sr. López de Mandaras afectaban a disciplinas como "los sistemas multiagente, el razonamiento espacial, la planificación de acciones, el razonamiento basado en la experiencia, la visión artificial o la comunicación multimodal persona-máquina", e incluso citaba otras disciplinas como la investigación de nanomateriales que podrían impactar de forma clave en todo este ámbito.
Sin embargo quisimos aclarar también unas conclusiones finales de cada uno de estos expertos sobre el impacto real y futuro de la IA. El Sr. Barro nos explicaba que había temas como el de la "influencia de las máquinas inteligentes en el empleo" que para él eran ejemplos que hacían necesario que la sociedad se anticipase a los profundos cambios que este tipo de eventos tendrán en los perfiles profesionales.
Juan Pavón mencionaba otros ejemplos como el reconocimiento del habla como parte de nuestra interacción con los dispositivos móviles, mientras que el Sr. Molina explicaba que el desarrollo de la IA "no ha sido movido por una visión filosófica de 'desarrollar una inteligencia humana', sino por el desarrollo de técnicas para mejorar sistemas reales".
Coincidiendo con el Sr. Barro, el Sr. López de Mantaras explicaba que "el peligro de la IA no se sitúa en el futuro, sino en el presente, y se trata de las muy reales amenazas a la privacidad, a la eliminación de puestos de trabajo y al desarrollo de locuras como las armas autónomas. Esto es lo que debe preocuparnos y debemos procurar evitar". Muy similar era la apreciación de Enrique Carmona, que trataba de explicar que el debate sobre IA es análogo al que se produjo en el pasado con otras disciplinas:
Será crucial que los gobiernos participen de este control [sobre la IA], de forma que éste no recaiga sólo en manos de compañías privadas. Este escenario no es exclusivo de la IA y ejemplos en otras disciplinas más recientes, como la ingeniería genética, o menos recientes, como el uso de la energía nuclear, han dado lugar a intensos debates y a una regulación orientada a controlar su evolución y desarrollo. En cualquier caso, nunca debería olvidarse que todo nuevo conocimiento no es bueno o malo en sí mismo, su beneficio o perjuicio dependerá siempre del uso que de él se haga.
En Xataka | Así ve la guerra del futuro el profesor que defiende los robots soldados
Ver 16 comentarios