Durante mucho tiempo, la mayoría de la población ha ignorado el mero concepto de 'inteligencia artificial' o, en caso de conocerlo, lo ha visto como algo lejano, sin consecuencias inmediatas más allá de los laboratorios.
Pero esto está cambiando, y no precisamente porque se haya generado una repentina corriente de opinión favorable hacia la IA. En palabras de Allan Dafoe, profesor asociado de política internacional de IA en la Universidad de Oxford y coautor del último informe publicado por el Center for the Governance of AI,
"Actualmente no existe un consenso en favor del desarrollo de inteligencia artificial avanzada, o de que va a beneficiar a la humanidad. Ese tipo de percepción podría llevar a que la IA sea percibida como ilegítima o causar reacciones políticas contra su desarrollo".
El citado informe está basado en una encuesta realizada a 2.000 adultos estadounidenses a lo largo del año pasado, y pretende ofrecer una imagen clara de cómo se posicionan en este tema las personas ajenas al mundo tecnológico.
Por supuesto, revelar esta imagen es complicado. Sobre todo por lo amplio del concepto 'inteligencia artificial', usado para englobar desde productos de consumo como Siri a futuras y revolucionarias tecnologías como la Inteligencia Artificial General, pasando por realidades presentes como el superordenador Watson.
La IA más prosaica es más invisible
Mucha gente no conoce aún todos los campos en los que tiene presencia la IA. Si bien la mayoría de los encuestados saben que se usa en robots, asistentes virtuales y vehículos autónomos... pocos la identifican como la responsable de las búsquedas de Google, las recomendaciones de Netflix o el etiquetado de fotos en Facebook.
No es una preocupación de 'nerds'
Aunque las voces críticas hacia la IA que más repercusión cosechan sea la de gente como Stephen Hawking o Elon Musk, la preocupación por la repercusión social de la IA no es cosa de 'la gente de Silicon Valley'.
Por el contrario, constituye una preocupación transversal, común en gente de todos los niveles socioeconómicos. De hecho, de media, la gente ajena al mundo tecnológico y aquella con menores ingresos está aún más preocupada con este tema.
Si estas conclusiones realmente coinciden con la percepción mayoritaria en nuestras sociedades, podrían motivar a los políticos a no ignorar ni posponer el debate público sobre la IA, y empezar a proponer medidas para regularla.
No tenemos claro si queremos una IA más inteligente
La mayor parte de los encuestados prevé que haya grandes avances en el campo de la IA a lo largo de la próxima década, pero existe una gran división en torno a lo deseable de una IA aún más inteligente: el 27% se opone, el 31% lo apoya en mayor o menor grado, y el 29% no tiene clara su opinión al respecto.
Los expertos piden rebajar la euforia
Esas previsiones optimistas sobre la velocidad de desarrollo de la IA (el encuestado promedio predijo una probabilidad del 54% de que la IA iguale en 2028 "todas las capacidades económicamente relevantes del humano medio") difieren de las previsiones de los expertos, que en la mayoría de los casos no ve probable tal hito antes del 2050.
Sin embargo, dichos expertos temen que el excesivo optimismo sobre el potencial a corto/medio plazo de la IA termine 'matando' a la industria o haciendo que el público se termine despreocupando acerca de su regulación.
La IA es un asunto muy delicado, pero no tanto como las bombas nucleares
Más del 80% de los estadounidenses creen que la IA y la robótico son asuntos que "deben manejarse con cuidado", y en quien confían (o en quien menos desconfían, más bien) como responsables de realizar esa labor es en su Ejército y en los investigadores de las universidades, por encima de las compañías tecnológicas, las ONG's o agencias como la CIA.
Al público le preocupan casi tanto las repercusiones de esta tecnología como otros asuntos más visibles hoy en día (por ejemplo, las amenazas a la privacidad o los ciberataques). Sin embargo, se consideró una amenaza menor y aún menos probable que los ataques nucleares, las epidemias o las recesiones globales.
Imagen | Ecole polytechnique
Ver 3 comentarios
3 comentarios
whisper5
1) La inteligencia artificial (IA) ni es buena ni es mala. Es simplemente una herramienta, como lo puede ser un cuchillo. El uso que hagamos de ella sí que puede ser bueno o malo, y por eso hay que regular su uso.
2) El ser humano ha evolucionado para temer aquello que ve y aquello que le ha supuesto una mala experiencia en el pasado (por ejemplo el fuego). Por eso, aunque se expliquen cien veces los riesgos digitales o nos prevengan contra el mal uso de la IA, nos cuesta creerlo.
3) El desarrollo de la IA va más lento de lo que muchas partes interesadas predican. Se sobrevalora y se derrocha entusiasmo para la promoción de productos, mejora de la imagen y obtención de capital. Las empresas dedicadas al desarrollo de coches de conducción autónoma pronosticaron que tendríamos conducción plenamente autónoma (nivel 5) en 2018 ó 2019. Ni se ha cumplido ni se va a cumplir.
4) Uno de los riesgos del mal uso de la IA, me refiero a la actual, a la que no es muy avanzada pero lo suficientemente potente, es la pérdida de privacidad, la vigilancia electrónica y la creación de perfiles de personalidad y comportamiento de personas para su manipulación, ya sea con objetivos comerciales, en campañas en redes sociales o para la manipulación en un referéndum o elecciones políticas. El año pasado tuvimos varios escándalos (Facebook, Cambridge Analytica, etc.) y nada ha cambiado, nada se ha regulado. La legislación actual sobre privacidad en medios digitales es escasa y pobre. Se regulan los datos obtenidos, pero no se regula el propio hecho de poder obtenerlos o no, así que todo el mundo está recopilando datos como locos. Se regula el dato personal, pero no se regula ni la creación ni el uso de perfiles personales creados a partir de los datos. Además, los datos viajan por todo el mundo rápidamente y sin pasar fronteras, y se comercia con ellos impunemente.
5) El buen uso de la IA también tiene consecuencias en nuestra sociedad y deberíamos debatirlas y buscar soluciones. Por ejemplo, la reducción de puestos de trabajo debido a la automatización. Los nuevos trabajos ni se crean al mismo ritmo que se destruyen otros, ni se crean en los mismos países donde se eliminan puestos de trabajo, ni se está invirtiendo en formación al ritmo necesario.