¿Serán capaces los robots de ayudarnos a morir algún día? Los ejemplos de la posible intervención de máquinas en los suicidios asistidos enciende de nuevo el debate sobre la eutanasia y la muerte asistida, y también pone de manifiesto lo lejos que estamos de un consenso en un tema especialmente delicado en el que los robots podrían aportar posibles soluciones pero también nuevas preguntas.
El suicidio asistido es una petición común entre diversos colectivos, y de hecho hace poco el caso de Brittany Maynard tuvo mucho protagonismo en todo tipo de medios de comunicación. Esta joven a la que se le detectó un cáncer terminal que la hizo tomar una difícil decisión: quería morir con dignidad. Otros muchos afectados por esta y otras decisiones han defendido esa opción, pero hay muchas situaciones en las que es necesaria la intervención de un médico o familiar. ¿Y si un robot pudiera realizar esa difícil tarea?
Vuelve el debate sobre la eutanasia
Esa reflexión sobre la ética robótica y sobre la ética de las máquinas -son dos cosas distintas, como explicaremos más adelante- determinará nuestra futura relación con esos robots y esas máquinas. Hoy hay poca discusión al respecto: las máquinas hacen lo que nosotros les decimos que hagamos, y no hay leyes de la robótica implicadas ni demasiadas consideraciones morales o éticas que las tengan en cuenta. Empiezan a aparecer casos en los que es necesario establecer esos principios, sí -el coche autónomo es un perfecto ejemplo de ello- y esos escenarios no harán más que aumentar en el futuro.
Uno de ellos será desde luego el de ese suicidio asistido que nos devuelve al debate sobre la eutanasia. El término en sí mismo engloba distintas acepciones: es preciso distinguir entre eutanasia directa (activa o pasiva) o la eutanasia indirecta. A partir de ahí aparecen conceptos relacionados entre los que está el del suicido asistido, que consiste en proporcionar de forma intencionada y con conocimiento a una persona los medios para suicidarse.
Y en el futuro esos medios podría proporcionarlos un robot, desde luego, pero eso no evitará que el debate y las posturas encontradas vuelvan a producirse. Algunas preguntas son obvias: si un robot ayuda a una persona a suicidarse, ¿cómo se considera al robot? ¿Como a un asesino? ¿O es quien lo fabricó o programó el responsable de esa acción?
También hay que tener en cuenta que la eutanasia no es legal en buena parte del mundo. Actualmente la eutanasia voluntaria o el suicidio asistido son legales en Holanda, Colombia, Suiza -hablamos hace poco del turismo suicida allí-, Japón, Alemania, Bélgica, Luxemburgo, Estonia, Albania, los estados de Washington, Oregon, Montana y Vermont en EE.UU. y la provincia canadiense de Quebec.
La tecnología de los robots al servicio de la muerte asistida
Hoy en día la muerte asistida suele proporcionarse siempre a través de un médico -los oncólogos son especialistas que por su especialidad suelen afrontar esa difícil cuestión muy a menudo-, pero los avances en tecnología y desde luego en su aplicación a los cuidados sanitarios podrían hacer que un día la persona que quisiese poner fin a su vida pudiera hacerlo con la ayuda de una máquina o un robot. Las teóricas ventajas -no depender de un ser humano- parecen inquietantes, pero abren nuevas preguntas y nuevos debates para los que tanto la ética robótica como la ética de las máquinas siguen sin tener respuesta.
En este sentido aparecieron por ejemplo noticias como la de un teórico robot que una empresa japonesa había creado para ofrecer una posible solución a situaciones de suicidio asistido. Como se comprobó poco después, el llamado SeppuKuma existía efectivamente, pero estaba destinado a ayudar en tareas de cuidados a nuestros mayores, y en ningún caso disponía de herramientas o métodos que ayudaran a esas personas a cometer un suicidio asistido.
El tema ha sido tratado en libros específicos sobre la materia como Machine Medical Ethics, editado por Springer, y en el cual Ryan Tonkens, del Centro para la Bioética Humana de la Universidad Monash en Melbourne (Australia) reflexionaba sobre el uso de robots (semi)autónomos para el propósito de asistir a enfermos terminales en su muerte en el contexto médico. La conclusión central era la siguiente:
Asumiendo que el suicidio asistido por un médico es moralmente permisible, si desarrollamos robots para que funcionen como cuidadores de seres humanos en contextos médicos ('carebots'), y dado que la muerte asistida es a veces un aspecto importante de los cuidados geriátricos, es moralmente permisible que tales robots sean capaces de facilitar la muerte asistida de esos pacientes en esos contextos y a petición clara del paciente en cuestión.
Tonkens añade que habría una ventaja adicional en este tipo de situaciones: el robot siempre asistiría a esos pacientes que consienten en ello y que son "genuinamente aptos", y de ese modo dichos pacientes no estarían a merced de cláusulas en las que la voluntad del médico haría que éste tuviera control sobre el momento y la forma de producir la muerte.
A la utilización de robots en este tipo de suicidios asistidos en el ámbito de la medicina se le suman otro tipo de suicidios asistidos. En marzo de 2008 una persona de 81 años utilizó un robot fabricado a mano para que fuera él quien disparara una pistola semiautomática y le causara la muerte. En aquel momento los defensores de la eutanasia indicaron que era necesario establecer una legislación para la "eutanasia pacífica" en Australia, país donde se produjeron los sucesos. Phillip Nitschke indicó que creía que "el hecho de que la gente llegue a tales extremos para ser capaz de desarrollar ese tipo de opción sugeriría que tener algún tipo de legislación sería beneficioso".
Los "dispositivos para la eutanasia" son de hecho una realidad desde hace tiempo. Estas máquinas, diseñadas para permitir que una persona muera con el mínimo dolor posible, están orientadas a pacientes de enfermedades terminales, y pueden ser utilizadas tanto por el propio paciente como por un médico. El Thanatron y el Mercitron, desarrollados por el doctor Jack Kevorkian, proporcionan dos alternativas distintas en este tipo de situaciones, y de hecho este defensor del suicidio asistido se hizo especialmente famoso tras el estreno en 2010 de "No conoces a Jack", una película en la que Al Pacino le encarnaba.
Ética de la robótica y ética de las máquinas
Según la Wikipedia la "roboética", o ética de la robótica está relacionada "con la forma en la que los seres humanos diseñamos, construimos, usamos y tratamos a los robots y otros seres con inteligencia artificial". Este concepto se distingue de la ética de la máquina, que está relacionada con los robots en sí mismos y su forma de actuar.
En el primer frente estarían tanto aquellos que no quieren considerar esa cuestión a la vista de ese futuro (sea más lejano o más cercano) en el que puede que la inteligencia artificial dote a esas máquinas de conciencia como otros grupos que precisamente están reflexionando sobre ello. En Xataka ya hablamos de la gente que ama a los robots y quiere defender sus derechos, y es evidente que hay interés en afrontar esa cuestión por parte de ciertas comunidades.
Las cosas son distintas en el caso de la ética de las máquinas, parte de la ética de la inteligencia artificial "que trata el comportamiento moral de los seres con IA". Este campo de la investigación en Inteligencia Artificial y en Robótica es especialmente novedoso, y está generando un creciente interés por parte de la comunidad científica.
Hace unos años ya vimos un experimento inquietante al respecto: en el Laboratorio de Sistemas Inteligentes de L'Ecole Polytechnique Fédérale de Lausanne, en Suiza, robots que fueron diseñados para cooperar a la hora de buscar un recurso beneficioso y evitar uno perjudicial aprendieron algo singular: a mentir.
El experimento involucró una simulación con 1.000 robots divididos en 10 grupos distintos. Cada robot tenía un sensor, una luz azul, y el código (algo así como su "genoma") que le permitía reaccionar ante distintos estímulos. La primera generación de robots fue programada para que la luz se activase cuando encontraran un recurso beneficioso, ayudando al resto de robots a localizarlo. Se daba puntos a los robots que localizaban el recurso beneficioso y se restaban puntos cuando los robots se mantenían cerca del venenoso.
A los 200 "genomas" con mayor puntuación se les emparejó aleatoriamente y mutaron para producir un nuevo tipo de programa. Nueve generaciones después los robots lograron convertirse en máquinas súper eficientes a la hora de encontrar ese recurso beneficioso y comunicárselo al resto del grupo. Sin embargo, solo un número limitado podía ganar puntos por estar cerca de ese recurso, y de sobrepasarse ese número esto podría "expulsar" al robot que lo encontró en primer lugar. Eso provocó que tras 500 generaciones de mutación del código el 60% de los robots mantuvieran su luz apagada cuando encontraban el recurso beneficioso. Lo querían para ellos solos.
Se volvieron codiciosos. Y mintieron.
Volvemos a las leyes de la robótica de Asimov
En 1942 el relato "El círculo vicioso" de Isaac Asimov descubriría al mundo las tres leyes de la robótica. Seguro que muchos las recordáis, pero para los que no lo hacéis, son las siguientes:
Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
A esas leyes acabó superponiéndose la llamada "ley cero": Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño. Aquellas leyes se convirtieron en base de la literatura fantástica sobre el tema y de hecho para muchos fueron la base de la investigación de la ética de las máquinas.
Y sin embargo, los expertos coinciden en que estos principios no son válidos, algo que fue debatido por ejemplo en el libro "Ética de las máquinas", publicado por Susan Leigh Anderson y que incluye un capítulo dedicado explícitamente a demostrar cómo esas leyes no son aceptables para establecer este tipo de mecanismos en robots que acaben siendo conscientes de sí mismos.
En ese texto se toma como base "El hombre bicentenario", la historia de Asimov que se convirtió en película hace unos años y que tiene como protagonista a un robot que Asimov utilizó para presentar su punto de vista respecto a cómo se debería tratar a los robots inteligentes y cómo deberían actuar ellos. Y entre las dificultades había una clara: cómo dotar a esas máquinas de integridad moral, algo de lo que dependería su ética.
La solución al problema no está clara, y hay quien opina que habría que utilizar la casuística para este propósito: hacer que las consideraciones éticas actuales se basen en situaciones pasadas. Otros expertos abogan por el aprendizaje de valores morales, mientras que hemos visto cómo en un problema hoy en día muy de relieve la solución es singular. Lo hablábamos al debatir sobre el coche autónomo y qué debería hacer la máquina al enfrentarnos a una situación en la que el coche tendría que elegir entre protegernos a nosotros o a un grupo de viandantes. La respuesta más satisfactoria para algunos es la más inquietante: la decisión debería ser de forma aleatoria, porque el ser humano es igualmente imprevisible en esos momentos y no es posible saber cuál será tampoco su decisión.
Las cosas también se ponen complicadas al hablar de la intervención de robots en conflictos armados, algo que muchos quieren evitar y que otros, por contra, creen que podría salvar la vida de muchos inocentes. Es el caso del profesor Ronald Arkin, al que entrevistamos hace unas semanas y que precisamente defendía ese uso de robots y afirmaba que pasará mucho tiempo antes de que los robots puedan tener conciencia de sí mismos y que podamos responder a estas preguntas sobre su posible comportamiento ético.
Imágenes | pachinger
Ver todos los comentarios en https://www.xataka.com
VER 41 Comentarios