Uno de los mayores dilemas a los que durante años se ha estado enfrentando el concepto del coche autónomo es el decidir a quién debe atropellar un coche autónomo en caso de duda. Ahora un grupo de investigadores del Media Lab del MIT y el Departamento de Machine Learning de la CMU dice haber hallado una solución al problema.
Se trata de un sistema de toma de decisiones éticas basado en los votos de la gente. Lo han publicado en un paper, y explican que la solución sería hacer una gigantesca encuesta entre millones de personas para ver cuales son las decisiones más éticas en cada situación según la sociedad, y luego simplemente hacer que los coches apliquen los resultados.
La solución está en un consenso moral
Imagínate que un tranvía se dirige a cinco personas atadas a las vías, y tú estás al lado de un botón que podría hacer que el tranvía cambie de vía hacia una en la que hay una única persona atada e inmovilizada. ¿Qué deberías hacer? Es lo que se llama el dilema del tranvía, y la solución según los investigadores sería buscar un consenso para decidir cual es el mal menor.
Esta investigación sobre cómo automatizar el proceso de encuestas para obtener un resultado claro en cada situación es un proyecto conjunto de cuatro investigadores del Media Lab del MIT y tres del Departamento de Machine Learning de la CMU. Para evaluar su teoría, han creado un modelo basándose en las decisiones tomadas por 1,3 millones de votantes en la web Moral Machine del MIT.
En esta web se le presenta a los votantes una serie de situaciones complejas con varias personas y animales involucrados, y ellos tienen que decir cual es la decisión que creen que debería tomar el coche autónomo en cada situación. La encuesta sigue abierta, o sea que aún puedes votar para ver cuales son las situaciones.
Con todos estos datos, han desarrollado un sistema de prueba de concepto que toma una decisión equivalente que probablemente sea la misma que si se acudiese a cada uno de los 1.3 millones de votantes, se les pidiese su opinión, y se generase con todas una opción que satisfaga las nociones matemáticas de justicia social.
Aproximación según lo acordado por la sociedad
Según el estudio, el principal obstáculo a la hora de automatizar la toma de decisiones es la falta de una base formal de principios éticos que se pueda aplicar a los algoritmos de los coches. Lo que sugieren es que a falta de esta base, lo que deberíamos hacer es utilizar una "aproximación según lo acordado por la sociedad". Vamos, basarse en la opinión de la gente.
Para conseguirlo proponen un proceso de cuatro pasos. Durante el primero se haría una especie de encuesta entre el mayor grupo de personas posible. A estas se le preguntaría a quién verían más ético atropellar en determinadas ocasiones, basándose en vectores como el número de víctimas, su género, su edad, su salud o incluso su especie.
Una vez hecho esto, el segundo paso sería el de crear modelos de preferencia de cada uno de los votantes, de manera que se puedan combinar en un tercer paso para crear un modelo único basado en las preferencias generales. Esto quiere decir que en cada una de las situaciones que se expusieran, elegirían la opción más votada como consenso sobre cómo sería más ético actuar según la sociedad.
De esta manera llegaríamos al cuarto paso, el de la agregación. Habría que insertar en los coches autónomos todas las preferencias generales que ha votado la gente, de manera que cuando el vehículo se enfrente a uno de los dilemas morales sobre el que se ha votado, se limite a actuar según lo que ha decidido la mayoría de ciudadanos.
Esta opción sólo se aplicaría si no queda más remedio, y si los algoritmos del coche no detectan ninguna manera posible en la que ante un inminente accidente nadie salga herido. Sería como optar por lo que la sociedad ha considerado como el mal menor o la salida menos catastrófica.
A la hora de tomar decisiones habría que conseguir el mayor número de personas posibles a la hora de realizar las encuestas, y en ellas también se deberían tener en cuenta otros parámetros como quienes son exactamente los que están involucrados en el accidente en cada caso. También otros aspectos de la situación como si alguno de los afectados se ha saltado alguna señal de tráfico como un semáforo en rojo.
No hay respuesta fácil en esta cuestión
Empresas como Mercedes han intentado posicionarse en este dilema moral sobre qué hacer en caso de accidente. En un principio dijo que priorizarían la vida de los ocupantes, pero las críticas recibidas hicieron que tuvieran que dar marcha atrás y puntualizar su declaración.
Esto demuestra que no estamos ante una solución fácil, ya que puede haber tantas respuestas ante el dilema como situaciones diferentes y cantidades y tipos de personas involucradas. Así pues, buscar un consenso como han propuesto estos investigadores no es una idea tan descabellada, y desde luego le ahorraría muchos dolores de cabeza a los fabricantes.
Sea como fuere, la mera existencia de este dilema y la posible automatización de una respuesta que no depende de la opinión de quien va conduciendo no dejará de ser polémica. Después de todo, ¿te comprarías un coche autónomo si este puede decidir sacrificarte como mal menor? Habrá que ver cómo se recibe esta propuesta por parte de la industria y si alguien tiene una sugerencia mejor.
En Xataka | ¿Estamos preparados para el día en el que un coche autónomo mate a alguien?
Ver 68 comentarios