Hace un tiempo hablamos de Future of Life, una asociación cuya misión es lograr que haya un desarrollo responsable de la inteligencia artificial, mostrando su preocupación por el camino que su investigación pueda tomar. En su momento ya publicaron una carta abierta de recomendaciones y ahora han establecido 23 principios a seguir en el desarrollo de inteligencia artificial para ir por el buen camino.
Entre sus miembros siguen estando como personajes destacados dentro del mundo de la tecnología y la ciencia Elon Musk y Stephen Hawking, cuyos nombres figuran al final de esta declaración junto a los otros muchos ingenieros y demás expertos en el sector. Aunque de nuevo se trata de una comunicación que establece este comité y esto no es representativo de las comunidades científica y de ingeniería en su totalidad.
Control de fondos, valores y ética para evitar la revolución robot
¿Qué es lo que indican estos principios de actuación? A grades rasgos son instrucciones básicas como el que cualquier desarrollo ha de ser compatible con la diversidad cultural y otros valores humanos (principio 11), así como establecer que se deberá evitar entrar en una competición de armas letales basadas en AI (principio 18). La lista total se divide en tres apartados: "Asuntos de investigación", "Ética y valores" y "Asuntos a largo plazo".
Asuntos de investigación
La meta de la investigación: el objetivo de la investigación de la AI debería ser crear inteligencia beneficiosa, y no inteligencia que no pueda dirigirse.
Fondos para la investigación: las inversiones en AI deberán acompañarse de fondos para una investigación que asegure su uso beneficioso, incluyendo asuntos controvertidos sobre ciencias de la computación, economía, legislación, ética y estudios sociales como: a) ¿Cómo podemos hacer futuros sistemas de AI suficientemente fuertes para que hagan lo que queremos sin funcionar mal o ser hackeados? b) ¿Cómo podemos aumentar nuestra prosperidad en automatización manteniendo los recursos humanos? c) ¿Cómo podemos actualizar nuestros sistemas legales para ser más justos y eficientes, mantener el ritmo con la AI y gestionar los riegos asociados? d) ¿Qué valores debemos asignar a la AI y qué estatus legal y ético debe tener?
Conexión con la ciencia y la política: debería haber un intercambio sano y constructivo entre investigadores de AI y legisladores.
Cultura de la investigación: se debería fomentar una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de AI.
Evitar competiciones: los equipos que se encuentren desarrollando sistemas de IA deberían cooperar para evitar procederes incorrectos en los estándares de seguridad.
Ética y valores
- Seguridad: los sistemas de AI deberían ser seguros y verificables donde sea aplicable y posible a lo largo de su actividad operativa.
Transparencia en los fallos: si un sistema de IA causa algún daño debería ser posible conocer el motivo.
Transparencia judicial: si un sistema autónomo interviniese en una decisión judicial debería ir acompañada de una explicación satisfactoria auditable por una autoridad humana competente.
Responsabilidad: los diseñadores y desarrolladores de AI avanzadas son responsables de las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y oportunidad de dar forma a las mismas.
Alineación de valores: los sistemas de AI con un alto nivel de autonomía deberían ser diseñados para que sus objetivos y comportamientos pudiesen alinearse con los valores humanos en toda su actividad.
Valores humanos: los sistemas de AI deberían ser diseñados y construidos para que fuesen compatibles con los ideales de dignidad humana, los derechos, las libertades y la diversidad cultural.
Privacidad personal: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a las IA el poder de analizar y utilizar esa información.
Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas.
Beneficio compartido: las tecnologías de IA deberían beneficiar y reforzar a tantas personas como fuese posible.
Prosperidad compartida: la prosperidad económica creada por AI debería compartirse de manera extendida para el beneficio de toda la humanidad.
Control humano: los seres humanos deberían escoger si delegan decisiones y el cómo a los sistemas de AI para alcanzar los objetivos preestablecidos.
No subversión: el poder conferido por el control de sistemas de AI de alto nivel debería respetar y mejorar, antes que subvertir, los procesos sociales y cívicos de los cuales depende la salud de la sociedad.
Carrera armamentística: cualquier carrera armamentística de armas autónomas letales debería ser evitada.
Asuntos a largo plazo
Capacidad de precaución: no existe un consenso, por lo que deberíamos evitar las asunciones en cuanto a los límites de las futuras capacidades de la AI.
Importancia: la AI avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el suficiente cuidado y los recursos pertinentes.
Riesgos: los riesgos que plantean los sistemas de AI, especialmente los catastróficos o existenciales, deben estar sujetos a una planificación y unos esfuerzos de mitigación que equivalgan a su impacto esperado.
Automejora recursiva: los sistemas de AI diseñados para automejorarse o autorreplicarse de forma que llevase a un incremento rápido en su calidad o cantidad deben estar sujetos a unas estrictas normas de control y seguridad.
Bien común: la superinteligencia debería ser desarrollada únicamente en servicio de unos ideales éticos compartidos globalmente y para el beneficio de toda la humanidad más que para un estado u organización.
La declaración es otra de las comunicaciones de Future of Life que, si bien se trata de una asociación que cuenta con pesos pesados en la ciencia y en la tecnología, surge de un debate entre parte de sus miembros (un 90% aproximadamente) y como decíamos no es algo oficial o global. De hecho en la propia web asumen que parte de los mismos están sujetos a distintas interpretaciones.

¿Son entonces necesarios? Evidentemente para esta asociación sí serán de mucha utilidad para los presentes y futuros desarrollos, y otros personajes importantes también han mostrado anteriormente preocupación sobre hasta dónde puede llegar el desarrollo de IA, como declaró Bill Gates a principios de 2015.
Estoy en el campo que está preocupado por las súper inteligencias. Primero, las máquinas harán muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien. Sin embargo, unas décadas después, las inteligencias serán suficientemente fuertes para convertirse en una preocupación. Estoy de acuerdo con Elon Musk y con otros en esto y no entiendo por qué algunas personas no están preocupadas.
El debate sobre el futuro a lo Terminator
No obstante, ya vimos que no todos los expertos opinan igual y que hay voces en contra de la creencia de que en el futuro las AI acaben siendo una amenaza para la vida humana. Era el caso de Eric Horvitz, científico responsable del área de investigación en la propia Microsoft, que se mostraba seguro en cuanto a que los sistemas que se desarrollarán estarán controlados incluso en situaciones imprevistas, como declaraba en una entrevista.
Ha habido preocupación en cuanto a que a largo plazo perderemos el control de ciertos tipos de inteligencias. Básicamente no creo que vaya a pasar.

Otros expertos como Guru Banavar (jefe de investigación de IBM) o el profesor Geoffrey Hinton (el que se considera uno de los promotores del deep learning) también se mostraban con una visión más confiada y optimista alejándose de las ideas de "un futuro a lo Terminator", como dijeron en BBC. John Underkoffler, CEO de Oblong Industries, y Charles Ortiz, jefe de AI e investigador senior de reconocimiento de voz Nuance, también mostraban opiniones similares a éstos en Venture Beat añadiendo, en el caso de Underkoffler, que aún estábamos algo lejos de la verdadera realidad artificial.
Más recientemente también vimos que desde la Universidad de Stanford iniciaban una serie de estudios sobre el futuro de la inteligencia artificial, 'One Hundred Year Study on Artificial Intelligence', publicando el primero y lanzando con él un mensaje según ellos más realista y que nos alejaba de la idea de unos sistemas con AI capaces de poner en peligro nuestros sistemas o incluso nuestra especie.
Imagen | Cinemanía
En Xataka | Aprende sobre Inteligencia Artificial por internet: cursos, publicaciones y las recomendaciones de expertos
Ver 12 comentarios
12 comentarios
whisper5
Algo que no se acaba de entender es que la inteligencia artificial general, cuando se cree, no generará un problema nuevo. El problema ya existe y se hará cada vez más patente conforme avancemos hacia ella.
Una de las características más importantes de la inteligencia es el autoaprendizaje, la exploración, adaptación al entorno y libre albedrío. Imaginemos un niño pequeñito y su comportamiento. Explora y actúa, y es impulsivo y caprichoso. Va aprendiendo que hay cosas que están bien y otras que están mal, de acuerdo a una ética que definimos como sociedad. Las inteligencias artificiales que creemos también deberán ser educadas por nosotros, y adoptarán los valores éticos que les enseñemos. ¿Seremos capaces de enseñar a las inteligencias artificiales que creemos unos valores que muchas personas no tienen ahora? ¿Por qué suponemos que vamos a conseguir con las máquinas inteligentes lo que no estamos consiguiendo con las personas? El problema no aparecerá con las máquinas inteligentes, esto es un problema actual del ser humano. Si queremos inteligencia artificial con ética debemos empezar con nosotros y ahora.
Jesus Martinez
Desde que crearon el captcha de "no soy un robot" el internet está a salvo de skynet o cualquier otra inteligencia artificial.
chronos02
Lo que se plantea tiene mucha lógica, sí, pero conforme se vaya abaratando la producción de las IAs, así como de los cuerpos artificiales donde meterlas, me da que nadie va a poder controlar si una persona o grupo se dedica a eliminar esas restricciones para así poder crear un ser realmente libre, o que a un chalado le de por meter cosas malas a la IA para que, bueno, le de por hacer un Matrix.
Toda esta gente que plantea el tema de las IAs y como regularlas, solo tiene en cuenta el periodo de crecimiento del "sector", por llamarlo de alguna manera, pero se olvidan por completo de la etapa de madurez. Es como los ordenadores, se plantearon como herramientas de uso exclusivo para empresas y cuerpos militares o de investigación, por los peligros que podría conllevar el que una persona con mala idea tuviese uno en su poder, y al final ha acabando teniendo uno hasta el tato, y han acabado haciendo con ellos verdaderas barbaridades. ¿Y qué decir de Internet?, algo creado para la comunicación del saber, pues que se ha acabado hasta generando una red de uso exclusivo para el lado oscuro, la llamada "deep web".
Esto ha pasado con todo, lo que hay que regular no es el aparato, el invento, o la idea, sino que hay que planificar cómo afrontar el problema que vendrá por narices en el futuro, hay que plantearse el qué pasaría si todo el mundo pudiese construirse en su casa un ciborg con IA como si de un crío con lego se tratara.
¿Es más complicado que meter unos parámetros en un chip? Obviamente, pero es que lo anterior se lo puede saltar cualquiera que sepa de programación o de hardware, y más en el futuro, cuando sabrán bastante más que nosotros del tema (es como comparar a un programador de los primeros computadores a uno de hoy en día, vamos, es que el de hoy se come con patatas al "original").
A mi que me dejen de vender ideas y que se pongan a trabajar, que publiquen papers interesantes y se dejen de absurdedades como ésta, que para eso tenemos a Asimov.
Además, más miedo deberíamos tener de nosotros mismos cuando podamos "conectarnos", una IA no dejará de ser un bebé con un cerebro digital en lugar de biológico, puede que aprenda más rápido, pero si se la educa como a un ser humano, acabará pensando y comportándose como uno (si la IA se hace bien, claro está), pero sin el problema añadido de los deseos del cuerpo, pero nosotros, los que estamos "maduros", si llegamos a poder conectarnos... bueno, si alguien ha leído GITS o Appleseed (hablo del manga, no de la fumada de Oshii), tendrá una idea bastante realista de por dónde va a ir la cosa. Por no mencionar que como "humanos" tendremos más derechos que las "IAs" (habrá discriminación contra ellas probablemente, a pesar de ser fundamentalmente lo mismo que un ser humano a nivel mental), así que es muy probable que tengamos acceso no restringido a las redes (de forma legal), y los que estén más tuneados podrán hacer cosas, muchas cosas...
El futuro distópico planteado en muchas novelas y obras de ficción, donde los frikis tendrán a su propio ejército de muñecas de último modelo que podrán hacer las mil y una, o en que los pervertidos podrán cambiarse el cuerpo por uno de loli para hacer vete tu a saber qué, o que los criminales utilicen cuerpos prostéticos a distancia para cometer atentados impunemente, pues... como decirlo, me parece más preocupante que el que las "máquinas" se amotinen contra nosotros.
Ah, y que se dejen de mentir como bellacos, nadie ha creado una IA aun, lo único que tenemos son sistemas basados en "árboles de aprendizaje" más o menos complejos, de aquí a que lleguemos a hacer una IA de verdad, pues como que nos queda un rato muy, pero que muuuuy largo, llegará antes la era en que metamos un cerebro en una caja, y esa caja en un cuerpo prostético.
Y sí, me aburro mucho.
abceddn
Esto me hace ver que la inteligencia artificial está muy, pero muy lejos. para crearla tenemos que saber que es, o como mínimo saber las bases de su funcionamiento, patrones o reglas (mas propias del asar que otra cosa). y tenemos a este grupo de personas tratando de reglamentarla, dejando en claro que poco o nada se entiende de esta cualidad.
hellgadillo
Menos mal que no pusieron este post en xataca y no en ciencia, los hubiera colgado por haber puesto a Musk y no a Hawking en el título.
claramente
Una vez más Elon Musk ha dado la respuesta de forma resolutiva, eficiente y sociable, como exige él mismo a cualquier empleado. Ante la preocupación por el avance de la AI ha decidido controlar el proceso, con la nueva empresa neurolink, y controlar el resultado, metiendo al humano dentro de la maquina. Hace más eficiente el proceso de creación del robot usando al humano como cyborg e interruptor principal de la AI. Define la AI como una capa, no es autónoma, funciona con una capa humana debajo de forma que no se pierde nunca el control. Ha dado respuesta a cada uno de los 25 principios en tiempo récord, menos de una año, para tener un desarrollo seguro de la AI en 5 años. Lo de este tipo es impresionante, qué manera de dar respuesta a problemas que otros ni siquiera se plantean y de forma rápida y eficaz... Y social.
robertogomes1
El verdadero riesgo es el comentado por voyager1973, para el 2050 habrá 3 mil millones de desocupados debidos al reemplazo causado por la eficiencia de la robótica y formas de IA parcial. Habrá una masa de superpoblación desocupada totalmente descartable, mientras habrá aumentado la contaminación, la escasez de recursos y el calentamiento global. Los que controlan a las máquinas pueden ceder ante la opción de limitar la población a sólo 100 millones y así restaurar el equilibrio natural del planeta.
Cosmonautas
La inteligencia artificial no se volverá en contra. Serán los que controlen la inteligencia artificial quienes la usarán para acabar con nosotros. Habrá una oligarquía a la que le sobrarán miles de millones de seres humanos, que serán inútiles en las próximas décadas. Primero sobrarán los conductores y dependientes; nadie dirá nada pero poco a poco iremos sobrando casi todos. Hasta que los que controlen las máquinas ideen la solución final, el exterminio de la mayoría sobrante. Como dijo Niemeyer: " Cuando los nazis vinieron a buscar a los comunistas,
guardé silencio, porque yo no era comunista. Cuando encarcelaron a los socialdemócratas,
guardé silencio, porque yo no era socialdemócrata. Cuando vinieron a buscar a los sindicalistas,
no protesté, porque yo no era sindicalista. Cuando vinieron a por los judíos,
no pronuncié palabra, porque yo no era judío. Cuando finalmente vinieron a por mí, no había nadie más que pudiera protestar". Ahora piense en cuantas décadas tardará una máquina en poder hacer su trabajo, cuanto tiempo tardaremos cada uno de nosotros en ser basura sobrante para los que controlen las máquinas, a nosotros y al mundo. Cuando queramos acordarnos de aquellos conductores que nos dieron igual, ya será tarde para la HUMANIDAD..