El MIT Media Lab no es solo el laboratorio de innovación del Instituto Tecnológico de Massachusetts (MIT). Es la ventana del mundo a un futuro mejor. Un lugar donde se conciben, diseñan y crean tecnologías que faciliten a las personas la construcción de un porvenir esperanzador. Fundado hace más de tres décadas, este laboratorio se propone inventar -y reinventar- cómo los humanos experimentamos la tecnología y cómo esta puede auxiliarnos.
En el MIT Media Lab hay grupos dedicados a la computación afectiva, a las dinámicas humanas, a la cooperación escalable, a las ciencias de la ciudad, al aprendizaje colectivo, a las máquinas sociales, al diseño ficción o al futuro de la música, por citar algunos. Recientemente se ha creado uno nuevo, dedicado a la ética. Entre sus iniciativas está la 'Máquina de la moral' o Moral Machine, un juego creado para desarrollar un sistema ético para los vehículos autónomos del que ya hemos hablado en Xataka y cuyos resultados esperan compartir antes de que acabe este 2018.
La máquina de la moral es uno de los experimentos más conocidos del grupo de Ética del Media Lab pero no es un proyecto aislado. El laboratorio participa -junto con otras instituciones- en una iniciativa más amplia cuyo propósito es avanzar en la investigación de la inteligencia artificial (IA) para el bien público. Para ello cuenta con unos fondos de 27 millones de dólares (unos 22 millones de euros).
De este programa nace el curso ' Ética y gobernanza de la inteligencia artificial', puesto en marcha recientemente. Su impulsor es Joichi (Joi) Ito, director del MIT Media Lab y también de este curso, que imparte junto con Jonathan Zittrain, profesor y cofundador del Centro Berkman Klein para Internet y la Sociedad de la Universidad de Harvard.
Hemos tenido la oportunidad de conversar con Ito (por correo electrónico) sobre el por qué de este curso, qué enseñan exactamente, qué aprenden sus estudiantes, cuál es la postura del MIT Media Lab en lo que concierne a la ética y la regulación de la IA y cómo afrontan este reto los investigadores del laboratorio.
Pregunta: ¿Cuál es su motivación personal para lanzar este curso?
Respuesta: Estoy preocupado por la inteligencia artificial y el uso de datos y algoritmos en la sociedad. Sus aplicaciones van desde evaluaciones de riesgos que se utilizan en el sistema de justicia penal -para tomar decisiones sobre la puesta en libertad bajo fianza o en libertad condicional, o incluso en sentencias- hasta determinar puntajes de crédito, las tasas de los seguros o las decisiones que tomarán los coches autónomos.
Toda esta nueva tecnología ha comenzado a extenderse al uso común sin suficiente aportación de las ciencias sociales y la sociedad en general. Muchos de estos sistemas tienen sesgos o se han construido sobre estructuras que no son suficientemente explicables o transparentes. Las personas están empezando a apreciar algunos de los problemas que esto acarrea, pero todavía no contamos con una base suficiente de ingenieros que entiendan las ciencias sociales ni de científicos sociales, abogados y reguladores que entiendan la tecnología.
Este curso trata de crear un entorno multidisciplinario para que los estudiantes del MIT, de la Facultad de Derecho y de la Escuela Kennedy de Harvard y de otros departamentos se reúnan para conocer y debatir estos temas.
P: ¿Qué comprende exactamente el curso? ¿Qué temáticas se tratan en específico?
R: Abordamos una amplia variedad de cuestiones, incluida la compleja interacción entre las organizaciones de gobernanza y los Estados soberanos; la proliferación de decisiones algorítmicas; los sistemas autónomos; el aprendizaje automático y cómo explicar su funcionamiento; la búsqueda del equilibrio entre regulación e innovación, y los efectos de la IA en la difusión de información. Todo esto junto con preguntas relacionadas con los derechos individuales, la discriminación y arquitecturas de control.
Las clases se dividen en varios temas. El primer día tratamos la autonomía, el diseño del sistema y la responsabilidad. El segundo día lo dedicamos íntegro a los sesgos de los algoritmos. El tercero, a cuestiones de propiedad, control y acceso. El cuarto día tratamos el tema de la gobernabilidad, la explicabilidad y la responsabilidad de la IA. El quinto tratamos sobre el la automatización del trabajo y el papel en ello de la regulación. La sexta y última clase es para las conclusiones en torno a la ética y la moral y sus fronteras.
[Para más información, Ito comparte el enlace de acceso al plan docente].
P: Una de las sesiones del curso se centra en buscar la clave de un buen balance entre innovación y regulación. ¿Cuál es su postura al respecto?
R: Trabajamos en sistemas complejos autoadaptables que evolucionan y cambian. Es importante ser iterativo. Es importante entender la dinámica y la estructura de la ley, la tecnología, las normas culturales y sociales y las fuerzas del mercado. Cuando sea posible, deberíamos tratar de pensar para qué [con qué fin] estamos intentando optimizar; de observar el sistema general y los efectos de cualquier regulación en todas las estructuras y a todas las escalas para asegurarnos de estar al tanto y de monitorizar las consecuencias involuntarias.
La innovación es importante pero no puede ser solo una vía para ganar dinero. Los programadores deben considerar el posible uso indebido de sus creaciones. Los reguladores, por su parte, deben desarrollar protecciones contra el daño social o la creación de prácticas desfavorables como los monopolios, sistemas que aumentan el sesgo o la disparidad de ingresos u otras formas de daño.
P: También se discute en una de las sesiones cuáles son los efectos de la IA en la difusión de información
R: Todavía estamos aprendiendo cómo estos algoritmos afectan la información que recibimos. Incluso podrían ayudar a dar forma a nuestras reacciones ante ella. Los ecosistemas de información son complejos, y más aún con la introducción de la IA. Nuestro abordaje consiste en afrontar estas cuestiones desde una perspectiva más inclusiva. No tenemos respuestas fáciles.
P: ¿Cómo lidian en su día a día los desarrolladores e investigadores del MIT Media Lab con las cuestiones éticas ? ¿Cuál es su principal reto?
R: En el laboratorio usamos el término "inteligencia extendida", que reconoce que es importante comprender el aprendizaje automático y la ética en la sociedad, ya que se relacionan con sistemas adaptativos complejos. Esa es la razón de contar con investigadores de talla mundial en casi todas las áreas a la hora de trabajar con sistemas de inteligencia artificial: perfiles técnicos, sociales, filosóficos, psicológicos, legales y artísticos.
La mayoría del trabajo de nuestros investigadores abarca muchas de estas disciplinas tradicionales. Hay muchos desafíos dentro de cada una de estas áreas, pero el principal reto se encuentra en los propios sistemas computacionales, en cómo traducir conceptos entre estos campos tradicionales. Por ejemplo, las definiciones de imparcialidad y parcialidad en el aprendizaje automático no son las mismas en sociología o incluso en derecho o economía. Dedicamos mucho tiempo a imbuir a nuestros estudiantes (que son técnicamente algunos de los mejores del mundo) la capacidad de asimilar, comprender y relacionarse con el lenguaje utilizado en las humanidades, las leyes, las artes y la medicina.
P: ¿Cree que debería ser obligatorio que los estudiantes de informática reciban formación en aspectos éticos?
R: Sí.
[En un artículo reciente en _Nautilus_ los investigadores del MIT Media Lab Iyad Rahwan y el español Manuel Cebrián van más allá y plantean la necesidad de crear una nueva disciplina académica para el 'comportamiento máquina', como la hay para el comportamiento humano. Su premisa: el estudio de la 'conducta' de la IA debe realizarse desde distintas disciplinas y no restringirse a aquellos que la desarrollan, al igual que en el caso de los humanos este no se reduce a la aproximación de los fisiólogos].
P: Circulan desde hace unos meses algunos manifiestos como la Declaración de Barcelona para el adecuado desarrollo y uso de la inteligencia artificial en Europa o la carta abierta en la que Elon Musk y otros líderes piden a la ONU que nos proteja de los peligros de las armas autónomas. El asunto ha tenido también un espacio en el Foro de Davos del Foro Económico Mundial este 2018. ¿Cree que son importantes iniciativas como estas para alcanzar acuerdos a nivel global? ¿Participa el MIT en alguna?
Es absolutamente vital contar con acuerdos internacionales en torno a la IA. Estamos trabajando con expertos de todo el mundo para desarrollar nuevos estándares en esta área.
Ver 9 comentarios