La inteligencia artificial nos rodea y nos envuelve. Estamos asistiendo a la eclosión de un campo que plantea una revolución asombrosa, y para hablar de todo lo que rodea a este ámbito hemos creado nuestro podcast, Captcha (iVoox, iTunes y Spotify), una serie de ocho apasionantes capítulos en los que nos acompañarán invitados de renombre dentro del sector.
En la segunda entrega de Captcha tenemos con nosotros a otro protagonista de excepción: Santiago Sánchez-Migallón, profesor de filosofía además de confeso darwinista, laplaciano y criptoateo. Es el creador del blog La Máquina de Von Neumann y colabora asiduamente en Hypérbole y en La Nueva Ilustración Evolucionista. Con él ahondamos en uno de los aspectos más llamativos de la llegada de la inteligencia artificial a nuestro mundo: el debate ético sobre cómo convivir con máquinas que están pero que sobre todo estarán a nuestro alrededor.
Este episodio tiene como presentadores a Antonio Ortiz (@antonello), director de estrategia en Weblogs SL y a Javier Lacort (@jlacort), editor en Xataka y Magnet. Junto a ellos Marina Such (@MissMacGuffin), redactora jefe de Fuera de Series y durante muchos editora en Espinof, que se encargará de enlazar el debate con el mundo del cine y las series televisivas.
La producción corre a cargo de nuestro compañero Santi Araujo (@santiaraujo) también responsable de nuestro podcast Despeja la X, y como invitado especial y residente del programa tendremos a Fabio Arena (LinkedIn), Product Marketing Manager de Huawei España, para darnos más detalles sobre el papel de la inteligencia artificial en sus dispositivos.
Las tres leyes de la robótica, a examen
Cuando Asimov creó sus tres leyes de la robótica como parte de su universo lo hizo teniendo probablemente claro que además de dar una solución, sus tres leyes planteaban que el debate ético de la inteligencia artificial y los robots no iba a ser de fácil solución.
Es ahí donde debatimos con Sánchez-Migallón sobre la validez de estas leyes como punto de partida para abordar la relación con las máquinas. Tenemos muy cerca un debate similar con el coche autónomo y el conocido dilema del tranvía.
No nos quedamos ahí, desde luego: exploramos con nuestro experto esa hipótesis que habla de programar robots contra las leyes de la robótica y ahondamos en los intentos que se están haciendo a la hora de desarrollar códigos éticos como el de la IEEE.
Os invitamos a disfrutar de ese debate y de las reflexiones de Santiago Sánchez-Migallón, culminado además por cómo esa avalancha de contenidos de ciencia ficción también han hablado (y mucho) del tema del mal, la ética o la rebelión, empezando por las propias adaptaciones de la obra de Asimov. Esperamos que disfrutéis una vez más, y también que si tenéis cualquier sugerencia o comentario los compartáis en los comentarios de este artículo o bien desde YouTube, iVoox, iTunes.
Cómo puedes suscribirte
Si te ha gustado este primer episodio o si deseas escuchar Captcha desde tu aplicación favorita para podcasts, puedes suscribirte a través de las principales plataformas:

¿Dudas sobre cómo suscribirte? Te explicamos cómo hacerlo utilizando iVoox y cómo hacerlo utilizando iTunes.
Ver 5 comentarios
5 comentarios
rtl0.92
Igual os interesa esta reflexión sobre el papel de la IA que hicimos en nuestro trabajo como antropologos en el mundo de la innovación. Un saludo!
ANTROPOLOGÍA ANTE LA SINGULARIDAD
https://www.linkedin.com/pulse/antropolog%C3%ADa-ante-la-singularidad-alexander-artola-fuentes
whisper5
¡Mira que lo ponéis complicado para simplemente descargarlo!
whisper5
Me ha sorprendido oír la defensa de herramientas predictivas para decidir sobre la vida de una persona (se hablaba de la concesión de libertad condicional). Creo que no es correcto utilizarlas. La herramienta predictiva se basa en información de la vida pasada de otras muchas personas en circunstancias parecidas y en datos concretos de la persona evaluada. Predecir el comportamiento de una persona basándose en el comportamiento pasado de otras personas no me parece justo, es privarle de su individualidad y capacidad para obrar de otra manera. Además, siempre me ha parecido que esto se hace porque no se quiere potenciar la reinserción de las personas. La mejor manera de predecir el futuro es trabajar por él.
Hay otras situaciones de decisión sobre la vida de las personas que pueden presentar sesgos y en donde lo más grave es que estos sistemas no pueden explicar por qué han tomado una decisión concreta. Son cajas negras. Se les entrena con un montón de datos y si estos tienen sesgos las decisiones también las tendrán. En esta categoría de inteligencia artificial están los sistemas para la concesión de créditos o tarjetas, evaluación de candidatos a un trabajo, contratación de seguros, etc.
No hay "ciencia ficción" ni "expectativas desmesuradas" respecto a las armas autónomas. Probablemente el caso más conocido sean las armas autónomas construidas en Corea del Sur por la empresa Hanwha Systems en colaboración con el instituto de ciencia y tecnología KAIST. Se han instalado y probado en la frontera entre las dos Coreas y debido a las criticas que han llegado por todas partes se apresuraron a decir que sólo operan bajo supervisión y por control remoto, pero lo cierto es que estas armas tienen capacidad para vigilar, detectar objetivos y disparar de forma autónoma actualmente. ( https://www.theguardian.com/technology/2018/apr/05/killer-robots-south-korea-university-boycott-artifical-intelligence-hanwha )
La inteligencia artificial no es "la herramienta perfecta para que no haya sesgos". De hecho uno de los debates éticos en inteligencia artificial es este, que están creándose sistemas de decisión con sesgos. Tampoco es viable la idea "hacer que no vea ese dato". Estos sistemas se entrenan con un montón de datos de ejemplo con unas determinadas características, y si se varían las condiciones de entrada hay que volver a entrenar al sistema. Una de las fragilidades del 'machine learning' se demostró cuando en un sistema de visión que reconocía objetos bastantes bien se modificó algún pixel y empezó a fallar bastante ( https://www.bbc.com/news/technology-41845878 )
Estoy totalmente de acuerdo con la idea de que el objetivo de las grandes empresas es ganar poder y dinero, y que lo de mejorar la humanidad lo dejan para los comunicados de prensa y las entrevistas a sus directivos. La solución, ahí también estoy de acuerdo, está en legislar. La actual situación de la informática y tecnología me recuerda al salvaje oeste, la ciudad sin ley, y las empresas van a aprovechar todos los vacíos legales en su propio beneficio. A veces hasta se legisla mal. Por ejemplo, se permite la circulación de vehículos autónomos experimentales, que todavía no están bien desarrollados, en vías públicas.
En general, se suele pensar en la creación de inteligencia artificial como un proceso de programación, seguramente porque es la informática que conocemos, pero creo que cuando creemos verdadera inteligencia artificial no necesitaremos programarla, sino que evolucionará según el mismo proceso de aprendizaje que tenemos las personas. No podremos programar la ética en el sentido que ahora le damos a la programación, sino que será parte del proceso de aprendizaje y necesitará de una evolución. Creo que debemos potenciar nuestro comportamiento humano y ético ahora, porque en realidad construimos "a nuestra imagen y semejanza". Algo que seguramente ayudará en la evolución de la inteligencia artificial y que se diferenciará de nosotros es la posibilidad de clonar una inteligencia artificial ya aprendida.