Hace un tiempo hablamos de Future of Life, una asociación cuya misión es lograr que haya un desarrollo responsable de la inteligencia artificial, mostrando su preocupación por el camino que su investigación pueda tomar. En su momento ya publicaron una carta abierta de recomendaciones y ahora han establecido 23 principios a seguir en el desarrollo de inteligencia artificial para ir por el buen camino.
Entre sus miembros siguen estando como personajes destacados dentro del mundo de la tecnología y la ciencia Elon Musk y Stephen Hawking, cuyos nombres figuran al final de esta declaración junto a los otros muchos ingenieros y demás expertos en el sector. Aunque de nuevo se trata de una comunicación que establece este comité y esto no es representativo de las comunidades científica y de ingeniería en su totalidad.
Control de fondos, valores y ética para evitar la revolución robot
¿Qué es lo que indican estos principios de actuación? A grades rasgos son instrucciones básicas como el que cualquier desarrollo ha de ser compatible con la diversidad cultural y otros valores humanos (principio 11), así como establecer que se deberá evitar entrar en una competición de armas letales basadas en AI (principio 18). La lista total se divide en tres apartados: "Asuntos de investigación", "Ética y valores" y "Asuntos a largo plazo".
Asuntos de investigación
La meta de la investigación: el objetivo de la investigación de la AI debería ser crear inteligencia beneficiosa, y no inteligencia que no pueda dirigirse.
Fondos para la investigación: las inversiones en AI deberán acompañarse de fondos para una investigación que asegure su uso beneficioso, incluyendo asuntos controvertidos sobre ciencias de la computación, economía, legislación, ética y estudios sociales como: a) ¿Cómo podemos hacer futuros sistemas de AI suficientemente fuertes para que hagan lo que queremos sin funcionar mal o ser hackeados? b) ¿Cómo podemos aumentar nuestra prosperidad en automatización manteniendo los recursos humanos? c) ¿Cómo podemos actualizar nuestros sistemas legales para ser más justos y eficientes, mantener el ritmo con la AI y gestionar los riegos asociados? d) ¿Qué valores debemos asignar a la AI y qué estatus legal y ético debe tener?
Conexión con la ciencia y la política: debería haber un intercambio sano y constructivo entre investigadores de AI y legisladores.
Cultura de la investigación: se debería fomentar una cultura de cooperación, confianza y transparencia entre los investigadores y desarrolladores de AI.
Evitar competiciones: los equipos que se encuentren desarrollando sistemas de IA deberían cooperar para evitar procederes incorrectos en los estándares de seguridad.
Ética y valores
- Seguridad: los sistemas de AI deberían ser seguros y verificables donde sea aplicable y posible a lo largo de su actividad operativa.
Transparencia en los fallos: si un sistema de IA causa algún daño debería ser posible conocer el motivo.
Transparencia judicial: si un sistema autónomo interviniese en una decisión judicial debería ir acompañada de una explicación satisfactoria auditable por una autoridad humana competente.
Responsabilidad: los diseñadores y desarrolladores de AI avanzadas son responsables de las implicaciones morales de su uso, mal uso y acciones, con la responsabilidad y oportunidad de dar forma a las mismas.
Alineación de valores: los sistemas de AI con un alto nivel de autonomía deberían ser diseñados para que sus objetivos y comportamientos pudiesen alinearse con los valores humanos en toda su actividad.
Valores humanos: los sistemas de AI deberían ser diseñados y construidos para que fuesen compatibles con los ideales de dignidad humana, los derechos, las libertades y la diversidad cultural.
Privacidad personal: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a las IA el poder de analizar y utilizar esa información.
Libertad y privacidad: la aplicación de la IA a los datos personales no puede restringir de forma poco razonable la libertad, real o sentida, de las personas.
Beneficio compartido: las tecnologías de IA deberían beneficiar y reforzar a tantas personas como fuese posible.
Prosperidad compartida: la prosperidad económica creada por AI debería compartirse de manera extendida para el beneficio de toda la humanidad.
Control humano: los seres humanos deberían escoger si delegan decisiones y el cómo a los sistemas de AI para alcanzar los objetivos preestablecidos.
No subversión: el poder conferido por el control de sistemas de AI de alto nivel debería respetar y mejorar, antes que subvertir, los procesos sociales y cívicos de los cuales depende la salud de la sociedad.
Carrera armamentística: cualquier carrera armamentística de armas autónomas letales debería ser evitada.
Asuntos a largo plazo
Capacidad de precaución: no existe un consenso, por lo que deberíamos evitar las asunciones en cuanto a los límites de las futuras capacidades de la AI.
Importancia: la AI avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería ser planificada y gestionada con el suficiente cuidado y los recursos pertinentes.
Riesgos: los riesgos que plantean los sistemas de AI, especialmente los catastróficos o existenciales, deben estar sujetos a una planificación y unos esfuerzos de mitigación que equivalgan a su impacto esperado.
Automejora recursiva: los sistemas de AI diseñados para automejorarse o autorreplicarse de forma que llevase a un incremento rápido en su calidad o cantidad deben estar sujetos a unas estrictas normas de control y seguridad.
Bien común: la superinteligencia debería ser desarrollada únicamente en servicio de unos ideales éticos compartidos globalmente y para el beneficio de toda la humanidad más que para un estado u organización.
La declaración es otra de las comunicaciones de Future of Life que, si bien se trata de una asociación que cuenta con pesos pesados en la ciencia y en la tecnología, surge de un debate entre parte de sus miembros (un 90% aproximadamente) y como decíamos no es algo oficial o global. De hecho en la propia web asumen que parte de los mismos están sujetos a distintas interpretaciones.
¿Son entonces necesarios? Evidentemente para esta asociación sí serán de mucha utilidad para los presentes y futuros desarrollos, y otros personajes importantes también han mostrado anteriormente preocupación sobre hasta dónde puede llegar el desarrollo de IA, como declaró Bill Gates a principios de 2015.
Estoy en el campo que está preocupado por las súper inteligencias. Primero, las máquinas harán muchos trabajos por nosotros y no serán súper inteligentes. Eso debería ser positivo si lo manejamos bien. Sin embargo, unas décadas después, las inteligencias serán suficientemente fuertes para convertirse en una preocupación. Estoy de acuerdo con Elon Musk y con otros en esto y no entiendo por qué algunas personas no están preocupadas.
El debate sobre el futuro a lo Terminator
No obstante, ya vimos que no todos los expertos opinan igual y que hay voces en contra de la creencia de que en el futuro las AI acaben siendo una amenaza para la vida humana. Era el caso de Eric Horvitz, científico responsable del área de investigación en la propia Microsoft, que se mostraba seguro en cuanto a que los sistemas que se desarrollarán estarán controlados incluso en situaciones imprevistas, como declaraba en una entrevista.
Ha habido preocupación en cuanto a que a largo plazo perderemos el control de ciertos tipos de inteligencias. Básicamente no creo que vaya a pasar.
Otros expertos como Guru Banavar (jefe de investigación de IBM) o el profesor Geoffrey Hinton (el que se considera uno de los promotores del deep learning) también se mostraban con una visión más confiada y optimista alejándose de las ideas de "un futuro a lo Terminator", como dijeron en BBC. John Underkoffler, CEO de Oblong Industries, y Charles Ortiz, jefe de AI e investigador senior de reconocimiento de voz Nuance, también mostraban opiniones similares a éstos en Venture Beat añadiendo, en el caso de Underkoffler, que aún estábamos algo lejos de la verdadera realidad artificial.
Más recientemente también vimos que desde la Universidad de Stanford iniciaban una serie de estudios sobre el futuro de la inteligencia artificial, 'One Hundred Year Study on Artificial Intelligence', publicando el primero y lanzando con él un mensaje según ellos más realista y que nos alejaba de la idea de unos sistemas con AI capaces de poner en peligro nuestros sistemas o incluso nuestra especie.
Imagen | Cinemanía
En Xataka | Aprende sobre Inteligencia Artificial por internet: cursos, publicaciones y las recomendaciones de expertos
Ver todos los comentarios en https://www.xataka.com
VER 12 Comentarios