¿Serán capaces los robots de ayudarnos a morir algún día? Los ejemplos de la posible intervención de máquinas en los suicidios asistidos enciende de nuevo el debate sobre la eutanasia y la muerte asistida, y también pone de manifiesto lo lejos que estamos de un consenso en un tema especialmente delicado en el que los robots podrían aportar posibles soluciones pero también nuevas preguntas.
El suicidio asistido es una petición común entre diversos colectivos, y de hecho hace poco el caso de Brittany Maynard tuvo mucho protagonismo en todo tipo de medios de comunicación. Esta joven a la que se le detectó un cáncer terminal que la hizo tomar una difícil decisión: quería morir con dignidad. Otros muchos afectados por esta y otras decisiones han defendido esa opción, pero hay muchas situaciones en las que es necesaria la intervención de un médico o familiar. ¿Y si un robot pudiera realizar esa difícil tarea?
Vuelve el debate sobre la eutanasia
Esa reflexión sobre la ética robótica y sobre la ética de las máquinas -son dos cosas distintas, como explicaremos más adelante- determinará nuestra futura relación con esos robots y esas máquinas. Hoy hay poca discusión al respecto: las máquinas hacen lo que nosotros les decimos que hagamos, y no hay leyes de la robótica implicadas ni demasiadas consideraciones morales o éticas que las tengan en cuenta. Empiezan a aparecer casos en los que es necesario establecer esos principios, sí -el coche autónomo es un perfecto ejemplo de ello- y esos escenarios no harán más que aumentar en el futuro.

Uno de ellos será desde luego el de ese suicidio asistido que nos devuelve al debate sobre la eutanasia. El término en sí mismo engloba distintas acepciones: es preciso distinguir entre eutanasia directa (activa o pasiva) o la eutanasia indirecta. A partir de ahí aparecen conceptos relacionados entre los que está el del suicido asistido, que consiste en proporcionar de forma intencionada y con conocimiento a una persona los medios para suicidarse.
Y en el futuro esos medios podría proporcionarlos un robot, desde luego, pero eso no evitará que el debate y las posturas encontradas vuelvan a producirse. Algunas preguntas son obvias: si un robot ayuda a una persona a suicidarse, ¿cómo se considera al robot? ¿Como a un asesino? ¿O es quien lo fabricó o programó el responsable de esa acción?
También hay que tener en cuenta que la eutanasia no es legal en buena parte del mundo. Actualmente la eutanasia voluntaria o el suicidio asistido son legales en Holanda, Colombia, Suiza -hablamos hace poco del turismo suicida allí-, Japón, Alemania, Bélgica, Luxemburgo, Estonia, Albania, los estados de Washington, Oregon, Montana y Vermont en EE.UU. y la provincia canadiense de Quebec.
La tecnología de los robots al servicio de la muerte asistida
Hoy en día la muerte asistida suele proporcionarse siempre a través de un médico -los oncólogos son especialistas que por su especialidad suelen afrontar esa difícil cuestión muy a menudo-, pero los avances en tecnología y desde luego en su aplicación a los cuidados sanitarios podrían hacer que un día la persona que quisiese poner fin a su vida pudiera hacerlo con la ayuda de una máquina o un robot. Las teóricas ventajas -no depender de un ser humano- parecen inquietantes, pero abren nuevas preguntas y nuevos debates para los que tanto la ética robótica como la ética de las máquinas siguen sin tener respuesta.

En este sentido aparecieron por ejemplo noticias como la de un teórico robot que una empresa japonesa había creado para ofrecer una posible solución a situaciones de suicidio asistido. Como se comprobó poco después, el llamado SeppuKuma existía efectivamente, pero estaba destinado a ayudar en tareas de cuidados a nuestros mayores, y en ningún caso disponía de herramientas o métodos que ayudaran a esas personas a cometer un suicidio asistido.
El tema ha sido tratado en libros específicos sobre la materia como Machine Medical Ethics, editado por Springer, y en el cual Ryan Tonkens, del Centro para la Bioética Humana de la Universidad Monash en Melbourne (Australia) reflexionaba sobre el uso de robots (semi)autónomos para el propósito de asistir a enfermos terminales en su muerte en el contexto médico. La conclusión central era la siguiente:
Asumiendo que el suicidio asistido por un médico es moralmente permisible, si desarrollamos robots para que funcionen como cuidadores de seres humanos en contextos médicos ('carebots'), y dado que la muerte asistida es a veces un aspecto importante de los cuidados geriátricos, es moralmente permisible que tales robots sean capaces de facilitar la muerte asistida de esos pacientes en esos contextos y a petición clara del paciente en cuestión.
Tonkens añade que habría una ventaja adicional en este tipo de situaciones: el robot siempre asistiría a esos pacientes que consienten en ello y que son "genuinamente aptos", y de ese modo dichos pacientes no estarían a merced de cláusulas en las que la voluntad del médico haría que éste tuviera control sobre el momento y la forma de producir la muerte.
A la utilización de robots en este tipo de suicidios asistidos en el ámbito de la medicina se le suman otro tipo de suicidios asistidos. En marzo de 2008 una persona de 81 años utilizó un robot fabricado a mano para que fuera él quien disparara una pistola semiautomática y le causara la muerte. En aquel momento los defensores de la eutanasia indicaron que era necesario establecer una legislación para la "eutanasia pacífica" en Australia, país donde se produjeron los sucesos. Phillip Nitschke indicó que creía que "el hecho de que la gente llegue a tales extremos para ser capaz de desarrollar ese tipo de opción sugeriría que tener algún tipo de legislación sería beneficioso".

Los "dispositivos para la eutanasia" son de hecho una realidad desde hace tiempo. Estas máquinas, diseñadas para permitir que una persona muera con el mínimo dolor posible, están orientadas a pacientes de enfermedades terminales, y pueden ser utilizadas tanto por el propio paciente como por un médico. El Thanatron y el Mercitron, desarrollados por el doctor Jack Kevorkian, proporcionan dos alternativas distintas en este tipo de situaciones, y de hecho este defensor del suicidio asistido se hizo especialmente famoso tras el estreno en 2010 de "No conoces a Jack", una película en la que Al Pacino le encarnaba.
Ética de la robótica y ética de las máquinas
Según la Wikipedia la "roboética", o ética de la robótica está relacionada "con la forma en la que los seres humanos diseñamos, construimos, usamos y tratamos a los robots y otros seres con inteligencia artificial". Este concepto se distingue de la ética de la máquina, que está relacionada con los robots en sí mismos y su forma de actuar.

En el primer frente estarían tanto aquellos que no quieren considerar esa cuestión a la vista de ese futuro (sea más lejano o más cercano) en el que puede que la inteligencia artificial dote a esas máquinas de conciencia como otros grupos que precisamente están reflexionando sobre ello. En Xataka ya hablamos de la gente que ama a los robots y quiere defender sus derechos, y es evidente que hay interés en afrontar esa cuestión por parte de ciertas comunidades.
Las cosas son distintas en el caso de la ética de las máquinas, parte de la ética de la inteligencia artificial "que trata el comportamiento moral de los seres con IA". Este campo de la investigación en Inteligencia Artificial y en Robótica es especialmente novedoso, y está generando un creciente interés por parte de la comunidad científica.
Hace unos años ya vimos un experimento inquietante al respecto: en el Laboratorio de Sistemas Inteligentes de L'Ecole Polytechnique Fédérale de Lausanne, en Suiza, robots que fueron diseñados para cooperar a la hora de buscar un recurso beneficioso y evitar uno perjudicial aprendieron algo singular: a mentir.
El experimento involucró una simulación con 1.000 robots divididos en 10 grupos distintos. Cada robot tenía un sensor, una luz azul, y el código (algo así como su "genoma") que le permitía reaccionar ante distintos estímulos. La primera generación de robots fue programada para que la luz se activase cuando encontraran un recurso beneficioso, ayudando al resto de robots a localizarlo. Se daba puntos a los robots que localizaban el recurso beneficioso y se restaban puntos cuando los robots se mantenían cerca del venenoso.
A los 200 "genomas" con mayor puntuación se les emparejó aleatoriamente y mutaron para producir un nuevo tipo de programa. Nueve generaciones después los robots lograron convertirse en máquinas súper eficientes a la hora de encontrar ese recurso beneficioso y comunicárselo al resto del grupo. Sin embargo, solo un número limitado podía ganar puntos por estar cerca de ese recurso, y de sobrepasarse ese número esto podría "expulsar" al robot que lo encontró en primer lugar. Eso provocó que tras 500 generaciones de mutación del código el 60% de los robots mantuvieran su luz apagada cuando encontraban el recurso beneficioso. Lo querían para ellos solos.
Se volvieron codiciosos. Y mintieron.
Volvemos a las leyes de la robótica de Asimov
En 1942 el relato "El círculo vicioso" de Isaac Asimov descubriría al mundo las tres leyes de la robótica. Seguro que muchos las recordáis, pero para los que no lo hacéis, son las siguientes:
-
Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
-
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
-
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
A esas leyes acabó superponiéndose la llamada "ley cero": Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño. Aquellas leyes se convirtieron en base de la literatura fantástica sobre el tema y de hecho para muchos fueron la base de la investigación de la ética de las máquinas.

Y sin embargo, los expertos coinciden en que estos principios no son válidos, algo que fue debatido por ejemplo en el libro "Ética de las máquinas", publicado por Susan Leigh Anderson y que incluye un capítulo dedicado explícitamente a demostrar cómo esas leyes no son aceptables para establecer este tipo de mecanismos en robots que acaben siendo conscientes de sí mismos.
En ese texto se toma como base "El hombre bicentenario", la historia de Asimov que se convirtió en película hace unos años y que tiene como protagonista a un robot que Asimov utilizó para presentar su punto de vista respecto a cómo se debería tratar a los robots inteligentes y cómo deberían actuar ellos. Y entre las dificultades había una clara: cómo dotar a esas máquinas de integridad moral, algo de lo que dependería su ética.
La solución al problema no está clara, y hay quien opina que habría que utilizar la casuística para este propósito: hacer que las consideraciones éticas actuales se basen en situaciones pasadas. Otros expertos abogan por el aprendizaje de valores morales, mientras que hemos visto cómo en un problema hoy en día muy de relieve la solución es singular. Lo hablábamos al debatir sobre el coche autónomo y qué debería hacer la máquina al enfrentarnos a una situación en la que el coche tendría que elegir entre protegernos a nosotros o a un grupo de viandantes. La respuesta más satisfactoria para algunos es la más inquietante: la decisión debería ser de forma aleatoria, porque el ser humano es igualmente imprevisible en esos momentos y no es posible saber cuál será tampoco su decisión.
Las cosas también se ponen complicadas al hablar de la intervención de robots en conflictos armados, algo que muchos quieren evitar y que otros, por contra, creen que podría salvar la vida de muchos inocentes. Es el caso del profesor Ronald Arkin, al que entrevistamos hace unas semanas y que precisamente defendía ese uso de robots y afirmaba que pasará mucho tiempo antes de que los robots puedan tener conciencia de sí mismos y que podamos responder a estas preguntas sobre su posible comportamiento ético.
Imágenes | pachinger
Ver 39 comentarios
39 comentarios
cronos26
Mmm hablemos sobre un tema candente de moral humana y de la ética aplicada a la robótica... Pero pongamos nuestro sellito en el título de nuestro amor incondicional por Apple, no vaya a ser...
anelsyjrp
Lo único chocante es el título. Opino que esto es un tema que debe ser tratado con seriedad. Personalmente es un tema que viví cuando mi padre estaba en sus últimos días después de complicaciones por una insuficiencia crónica renal. Ya no resistía más diálisis. Él quería irse y nosotros no queríamos perderlo. Por un lado está el hecho de quien sufre y quiere detener el sufrimiento y quiere morir en paz y por el otro lado están los familiares del enfermo que no quieren perder a esa persona y quieren continuar haciendo lo posible para que continue en este mundo. Es un tema complicado y que se ve en una encrucijada con los tema éticos y morales. El gran dilema de esto en los países donde lo permite la ley reside en esos casos es cuando el paciente tiene una condición tan grave que no le permite hacerlo por sí mismo y si lo hace otro es considerado asesinato y allí es donde pienso que entraría la ayuda robótica que a su vez se enfrenta a otro controversial dilema moral.
bluenote
Wow. A algunos, sólo con pensar en pensar ya les duele al cabeza (o el hueco entre las orejas). Venga, una comparativa entre los dos últimos móviles chinos, para quitarnos la tontería...
jorgeescmem
Yo, de hecho, pensé que se incluiría al menos la respuesta de Siri a dicha pregunta, digo, para que tenga una mención en el titulo.
Por lo demás, un articulo interesante, pero no pude dejar de pensar a que horas iba a aparecer Siri...
espabilao
Me parece un tema muy peliagudo, con demasiadas aristas.
Yo particular, no sabría que hacer
astronouta
proximo lanzamiento... IDeath, muere por sólo 3445$,el precio no incluye recogida ni entierro del cadaver, para eso contrate el servicio de Igrave u Iburn, modelo de nicho 1500$, caja soldada a agujero no ampliable, quema báscia 2000$ por 50kg, 150$ mas por cada 5 kg. Designed in california.
abceddn
Alguien ya ha fumado suficiente, como tema absurdo y divertido, está bien discutir esto, pero empezar con la eutanasia y robots, es comenzar a volarse la barda, y creerse en serio de que la moral es parte esencial de la cibernética/robótica, cuando en realidad, tanto los sistemas como las piezas de hardware que creamos, son HERRAMIENTAS que usamos para mejorar la vida diaria, es decir no acusamos de homicidio a un martillo que le rompe la cabeza a un humano, cierto? En la misma situación están los robots o sistemas que pretenden cierta autonomía, son máquinas creadas para un fin específico y la responsabilidad de estas recae directamente sobre el usuario o el creador, el usuario/creador es el que genera la acción dañina o beneficiosa, el usuario es el que tiene un objetivo, las maquinas no podrán tener objetivos y sueños al menos hasta el próximo siglo (inteligencia emocional). Lo que pasa es que muchos aquí confunden la inteligencia artificial con la inteligencia emocional, es decir creen que por que un sistema puede ser sumamente inteligente, ya tiene decisión, cuando en realidad no es así, ya que todas las decisiones que se tomen con inteligencia, son decisiones pre-programadas por un entorno o ente, un ser tiene decisión cuando la acción viene influenciada por las emociones, esto, es la verdadera inteligencia, la que combina datos certeros y lógicos, con emociones caóticas e impulsivas, las maquinas no podrán tener inteligencia emocional, al menos por los próximos 50 años (siendo muy optimistas), y cuando llegue ese momento no habrá ambigüedades morales, todo ser capaz de sentir su propia existencia o de otras existencias, merece derechos y responsabilidades acordes al nivel de inteligencia y sensación, es decir serán juzgados como humanos maquinoides.
Pd. Que lamentable título.
lordfairfax.fairfax
>>Siri, ayúdame a suicidarme
...Y Siri respondió: "Depende. Cuánto pagas?".
Verdaderamente ya era inteligente.
havochin
No se porque meter a Siri en el tema cuando Cortana es mucho mas avanzada
MORFO
Cortana lo aria mejor y con mas delicadeza.
exitido1
Me espero a la película, lamentable el titulo de la noticia, cada vez mas patético.
cefalopodo
Javier, sinceramente deberías cambiar el titular. Algo tan serio como la eutanasia no debería tomarse de esa forma, me parece de tremendo mal gusto y falta de respeto.
augus1990
Una persona cuya decision esta condicionada por su mala salud no creo que este apa para tomar semejante decision, pero tampoco creo que las personas cercanas a el puedan tomarla tampoco si por lo menos haber dejado un rango de tiempo razonable para que intente vivir.
jesuspascual del pob
Se habla del tema de la moral puesto que se habla de inteligencia real (aunque sea artificial, adceddn).
Se habla de que hoy en día son capaces de aprender. Y lo aprendido no está programado. Cómo demuestras que no aprenderá a matar y que lo hará? Si no hacemos por inculcar una moral artificial a esa "mente" podemos esperar consecuencias.
El humano se está yendo a la mierda. La verdad, no se hasta dónde quieren llegar esta gente pero está claro que en algún momento esto se volverá en nuestra contra.
Está guapo, sí, pero yo lo dejaría ya. Que bastante tenemos con los que ya poblamos el mundo.
krapula
Lo de que lo haga un robot, ya son palabras mayores...y si lo dijeras en broma?...habría marcha atrás?...es un tema difícil. Tendría que establecerse un protocolo de muerte digna y sin sufrimiento, sería el único caso en que un robot podría ejecutar a un humano...se alterarían las normas básicas de la robótica que pronostico Asimov?...podría haber errores?...
donutee
Como dijeron por ahí más arriba, no soy lo suficiente maduro para tomar muy enserio un tema como estos. Aunque el artículo es muy interesante y bastante controversial, no sabría bien que opinar al respecto ya que me considero un tanto fanboy de algunas cosas, y poco interesado en cosas que realmente deberían importarme, algún día espero tener pensamiento crítico tan maduro como poder opinar seriamente.
PD: Fabuloso artículo, de los mejores que he visto en Xataka. Gracias Javier :)