Hay titulares -como el de este artículo- que pueden ser malentendidos. Como con la inteligencia artificial (IA), conviene no dejarse llevar por las apariencias. Frente a lo que pueda parecer, este no es un artículo contra la IA, sino contra su mitificación y mistificación, y contra las visiones apocalípticas. Algo necesario en este momento de 'hype', de bombo excesivo de esta tecnología, de extremos y de exageración tanto de su potencial como de sus posibles riesgos.
La historia se repite. "Al igual que 'la nube' o 'big data' antes, el término 'inteligencia artificial' ha sido secuestrado por mercadólogos y publicistas. Gran parte de lo que la gente llama 'inteligencia artificial' es realmente analítica de datos. En otras palabras: más de lo mismo", comentaba ya en 2016 Om Malik -fundador del grupo mediático de medios en tecnología GigaOm y socio de TrueVentures- en un artículo en New Yorker.
"Si la exageración te lleva a preguntarte qué es la IA en realidad, no te preocupes, no estás solo", añade. Él mismo pidió a varios expertos que definieran el término y encontró que, en lo que todos parecían estar de acuerdo, es en que la inteligencia artificial es un conjunto de tecnologías que intentan imitar o aumentar la inteligencia humana. "Para mí, el énfasis está en el aumento, en el que el software inteligente nos ayuda a interactuar y lidiar con el mundo cada vez más digital en el que vivimos", afirma.
Los científicos llevan ya más de medio siglo tratando de desarrollar sistemas medio decentes de IA. "Las técnicas de IA disponibles actualmente son básicamente las mismas que hace treinta años. Lo que ha cambiado es la infraestructura y la disponibilidad de los datos", explica Alexandra Kirsch, científica independiente experta en inteligencia artificial. "Gracias a internet y al desarrollo de ordenadores más rápidos -que aceleran la capacidad de cómputo- podemos responder a nuevas necesidades y usar técnicas como el aprendizaje automático estadístico que estaban disponibles antes pero no eran tan relevantes como lo son hoy", añade la investigadora.
Precisamente por ello, es ahora cuando están emergiendo las aplicaciones más interesantes de la IA y aquellas con más proyección. Al mismo tiempo, el entusiasmo en torno a su potencial se ha disparado. Como Kirsch, muchos científicos se muestran escépticos. Piden cautela ante este _hype_ y aclaran algunos malentendidos.
De inteligente, poco
¿Es inteligente la IA? No. No en términos de inteligencia humana. "No existe ninguna inteligencia artificial que equivalga a la mente de una persona ni es lo que se pretende", afirma Pablo Gervás, director del grupo de investigación en Interacción Natural basada en el Lenguaje y el Instituto Tecnología del Conocimiento de la Universidad Complutense de Madrid. Gervás señala que "el desarrollo de la IA se hace por dinero" y que por eso se centra en cosas muy concretas y potencialmente rentables, como la traducción automática de Google.
El experto en IA argumenta que el desarrollo de estas tecnologías es "carísimo" y requiere mucho esfuerzo en investigación, por lo que, para que merezca la pena económicamente, tiene que dar muchos beneficios. "El 99% de las operaciones que realiza la mente humana no compensa en estos términos", asegura. "Por eso se van desarrollando funcionesmuy aisladas, que no son extrapolables a otras facetas, por muy afines que sean. No es que porque sepan conducir coches vayan a conquistar el mundo", afirma.
De hecho, ni siquiera saben conducir coches. "Estamos poniendo vehículos en la carretera que no es que sepan conducir sino que saben girar el volante como tienen que hacerlo para no salirse del carril, y algunas otras tareas básicas", explica Gervás. "Un conductor humano hace muchísimas más cosas que no están contempladas por estos sistemas", añade. Señala que, si bien para nosotros conducir es un todo, la IA solo sabe una parte, ciertas tareas que se han logrado desarrollar. "Hay que explicar a la gente que las máquinas no son como nosotros, que tenemos muchas habilidades y sabemos cómo combinarlas, cambiar de una a otra, etc"
En la misma línea, Joshua Bengio, profesor de informática en la Universidad de Montreal, que lidera uno de los grupos más prominentes a nivel mundial en el desarrollo de técnicas de aprendizaje profundo, asegura en una entrevista en _MIT Technology Review_ que "hay personas que están sobreestimando enormemente el progreso que se ha hecho en este campo". "Hay muchos, muchos años de pequeños avances detrás que la gente subestima, y es difícil separar el _hype_ de la realidad porque estamos viendo grandes avances que, a simple vista, parecen magia", añade.
Otro escéptico es Gary Marcus, científico y emprendedor, fundador de la start-up de aprendizaje automático Geometric Intelligence, adquirida por Uber. "La gente está muy entusiasmada con algo que representa solo una pequeña parte de lo que realmente necesitamos lograr. Ha habido progresos, por ejemplo, en el reconocimiento de voz. Pero eso no es comprensión del lenguaje, es sólo transcripción", constata en una entrevista.
Gervás, por su parte, insiste en que, si bien cada una de las capacidades de la IA por separado puede considerarse un ingrediente para la inteligencia, no lo son por sí solas: "Además, ni siquiera sabemos qué es ser inteligente. A lo mejor le pusimos mal el nombre porque llamarle 'inteligencia es muy engañoso.
Al pionero español de la IA Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC, esto de las definiciones no parece preocuparlo mucho. "Es muy complicado definir inteligencia. No hay una definición universal consensuada. Nos cuesta poco reconocerla y mucho definirla. Pero tampoco es tan importante, no hay una definición clara y universal de los que es vida y la biología no parece afectada por ello", comentaba en el primer capítulo del nuevo podcast de Xataka: Captcha. Entonces, ¿qué es la IA? "No hay una definición oficial, igual que cada cual tiene sus propios estándares para definir lo que es 'inteligencia'", afirma Kirsch.
Débil y limitada
Para contextualizar lo que se entiende por inteligencia artificial, López de Mántaras se remonta a 1980, cuando el que el filósofo John Searle introdujo el concepto de 'IA fuerte' para diferenciar el software y hardware capaz de funcionar como una mente humana (incluso de tener consciencia) de aquellos que pueden simular cada aspecto de esta, pero no toda en su conjunto. "Antes no se hablaba de eso, pero aunque el propio Turing y los pioneros de la IA no lo mencionasen, se referían a ello implícitamente. Creo que tenían en mente que una máquina no solo se limitaría a emular una capacidad concreta sino que sería muy genérica, multitarea y que incluso tendría estados mentales, conciencia", apunta el investigador.
Tal y como comentan los expertos, lo que existe ahora es una IA débil no general, capaz de resolver muy bien una única tarea, una vez contextualizada. Es decir, es limitada, incapaz de sumar aprendizajes como las personas: un sistema de IA puede saber jugar muy bien al ajedrez pero ser incapaz de encontrar un tumor en una imagen. Y, si aprende a identificar tumores, se olvidará de cómo jugar al ajedrez. Es lo que se conoce como 'olvido catastrófico', uno de los principales talones de Aquiles para una IA general, fuerte.
Además, López de Mántaras aclara que ningún programa o máquina ha pasado siquiera el test de Turing, que evalúa si una máquina puede tener un comportamiento indistinguible al de un humano por vía textual. Y también asegura que, aunque lo pasase, eso no significaría que es inteligente. "Remitirse únicamente a todo aquello que es verbalizable, que se puede expresar por el medio escrito, como son las preguntas del test de Turing, es delimitar muchísimo lo que es la inteligencia. La inteligencia es mucho más que la capacidad de mantener un diálogo coherente. En todo caso, es un test sobre aquellos aspectos de la inteligencia que puedan ser expresados mediante palabras", explica.
Por eso se habla de un test de Turing total que tenga en cuenta otros aspectos (motores, de percepción, etc.) que el clásico no recoge, comenta el experto. También menciona otras alternativas como el test de Winograd para reconocer si una máquina tiene sentido común. "Este para mí es mucho más interesante y convincente. Significaría que la máquina que lo pasase tendría una comprensión profunda de la semántica del lenguaje", afirma.
Al igual que Gervás, López de Mántaras puntualiza que en la comunidad científica no se trabaja con el objetivo de pasar estos test. "En todo caso sería un efecto colateral de los avances en este campo. Si un día hubiera una IA general y fuerte, como consecuencia pasará cualquiera de estos test, pero no son la fuerza que tira de la investigación", asegura. ¿Llegará ese día? "Lo dudo mucho. Veremos avances en sistemas que hagan varias cosas y todas ellas muy bien, pero esto está muy lejos de una auténtica IA general fuerte", señala el experto del CSIC.
Gervás tampoco lo cree: " Una inteligencia general es el santo grial. No tiene solución inmediata y todo lo que se ha avanzado en más de seis décadas de investigación sugiere que requiere de la combinación de muchísimas piezas, muchas de las cuales ni siquiera están desarrolladas ni sabemos cómo combinar". En ese camino, López de Mántaras asegura que le sorprendería que se lograse desarrollar una teoría de la mente computacional , es decir, una arquitectura cognitiva implementable por una máquina. "Sería un paso importante para tener una IA general y quizá fuerte", sostiene.
No da miedo
Para seguir desmitificando a la IA, otro 'escéptico' añade leña al fuego. Se trata de Luciano Floridi, profesor de Filosofía y Ética de la Información en la Universidad de Oxford, donde dirige el Laboratorio para la Ética Digital. "Después de tanto hablar sobre los riesgos que plantean las máquinas ultrainteligentes es hora de poner luz sobre el asunto, dejar de preocuparnos acerca de escenarios de ciencia ficción", señalaba en un ensayo publicado en Aeon en 2016.
Entre esos escenarios, por ejemplo, el temor a que la IA pueda avanzar y automejorarse de tal manera y que se vuelva difícil de controlar. Algo que descarta Bengio: "No es así como se construye la IA. El aprendizaje automático requiere de un proceso lento y minucioso para adquirir información a través de millones de ejemplos. "Una máquina se mejora a sí misma, sí, pero muy, muy lentamente, y de formas muy especializadas. Y el tipo de algoritmos usados no se parece en nada a pequeños virus que se autoprograman", aclara.
Otro de los temores acerca de la IA es su uso bélico para crear robots asesinos inteligentes y autónomos. El debate en la comunidad científica se da entre quienes piden la prohibición de tales armas y quienes creen que su uso es conveniente para evitar lo que eufemísticamente se llama 'daños colaterales'. El argumento es que, si una bomba inteligente se dirige únicamente a la persona o grupo a combatir, no morirán personas inocentes.
Kirsch se muestra escéptica: " No hay motivos para pensar que la inteligencia artificial hará de la guerra algo mejor. Quien discuta acerca de estas cuestiones debería hacerlo sobre la base de la tecnología disponible hoy día, no sobre una fantasía que podría o no materializarse en un futuro distante". Gervás añade también un punto de prudencia tecnológica, ya que –dice- "las tasas de error de los sistemas de visión artificial son considerables. Reconoce que usar estas tecnologías con fines bélicos "es una gran tentación" pero se muestra reacio a dedicar la investigación científica "al juego de la guerra".
Frente a ello, Floridi pide " empezar a centrarnos en los retos reales de la IA". Retos como el que plantea Kirsch: resolver problemas reales más allá de la optimización. "Las técnicas de IA actualmente no son diferentes de cualquier otro algoritmo. Son una caja de herramientas que aplicar a determinados problemas, normalmente de optimización. Sin embargo, los problemas del mundo real suelen requerir ir más allá", señala la investigadora. "El problema -prosigue- es que estos algoritmos deben recibir exactamente una variable para maximizar o minimizar. Por ejemplo, para calcular la ruta más corta o más rápida para llegar a un punto. Pero si buscamos algo diferente conforme a lo que tenemos en mente, la máquina no podrá adivinarlo porque no podemos poner esta intuición en números".
LA inteligencia artificial no tiene poder
El ejemplo de Kirsch es solo uno de los muchos que muestran, como dice Floridi, que " la realidad de la IA es más trivial de lo que pensamos". Por eso critica los movimientos que profetizan sobre la singularidad tecnológica: que los humanos algún día seremos superados por máquinas artificialmente inteligentes o por una inteligencia biológica mejorada cognitivamente, o por ambas. A juicio del filósofo e ingeniero de la Universidad de Oxford, la que denomina 'Iglesia de los Singularitarios' está "distrayendo irresponsablemente" con la difusión de sus ideas.
Floridi también critica al bando opuesto -la 'Iglesia de los Ateos'- por enredarse con los 'singularitarios' en una discusión "sin sentido". Como el propio Turing escribió en 1950 en su conocido artículo '¿Puede una máquina pensar?', la propia pregunta es demasiado inútil para merecer una discusión. Y, además -dice el filósofo- ambos se equivocan. "Una IA que piense de verdad, general y fuerte, no es lógicamente imposible, pero sí totalmente inverosímil. No tenemos idea de cómo diseñarla, sobre todo porque tenemos muy poca comprensión de cómo funciona nuestra propia inteligencia y nuestro cerebro", asegura.
Esto significa -en su opinión- que no deberíamos perder el sueño en la posible apariencia de una ultrainteligencia. " Cualquier visión apocalíptica de la IA puede ser ignorada", afirma. "Lo que realmente importa es que la creciente presencia de tecnologías más inteligentes está teniendo enormes efectos en cómo nos concebimos a nosotros mismos, el mundo y nuestras interacciones. Lo importante no es que las máquinas sean conscientes, inteligentes o capaces de conocer algo como lo hacemos nosotros. No lo son. Ninguna entidad consciente emergerá de una máquina de Turing", sostiene el experto.
En su opinión, lo relevante es que cada vez hay más tecnologías que son capaces de lidiar con más tareas mejor de lo que lo hacemos los humanos, y que eso nos desplaza de nuestra posición de antropocentrismo. Es lo que denomina "la Cuarta Revolución de nuestro propio entendimiento". "Ni somos el centro del universo (Copérnico), ni del reino biológico (Darwin), ni de la racionalidad (Freud). Y ahora tampoco los somos de la infoesfera (Turing) sino que la compartimos con las tecnologías digitales, que define como "artefactos ordinarios que nos superan en cada vez más tareas, a pesar de no ser más inteligentes que una tostadora". "Sus habilidades son humildes y nos hacen reevaluar la excepcionalidad humana y nuestro papel especial en el Universo , que sigue siendo único", añade.
Incluso obviando el asunto de cuán inteligente es la IA -comenta Marcus por su parte- "lo realmente relevante es cuánto poder tienen los sistemas basados en estas técnicas: qué pueden controlar directamente". Y eso es algo en manos de los humanos: de deciden y rigen su uso. Como suele pasar, el problema no es la tecnología, sino cómo se utiliza.
Así que tenemos una inteligencia artificial que ni es inteligente, ni pasa el test de Turing, ni da miedo. Que, además, es débil y limitada, y su poder no es propio sino otorgado por los humanos. Pero, ojo, no es una IA inútil. Solo hay que saber dirigirla sin perder el norte. Floridi, a modo de 'carta a los Reyes Magos', reivindica los pilares que cree que deben regir su desarrollo: debe ser una IA más ecológica, cuyo centro (su fin, y no su medio) sean las personas, "cuya estupidez funcione en favor de la inteligencia humana" y que nos haga más humanos.
Ver todos los comentarios en https://www.xataka.com
VER 14 Comentarios