300.000 vidas cada década. Eso es lo que podrían conseguir los coches automáticos solo en EEUU. Sin embargo, no es tan sencillo como parece. Conducir un coche no es sólo una cuestión mapear el entorno y seguir las normas de circulación: es tomar decisiones complejas en cuestión de segundo. Y el problema es que hay muchas cosas que no sabemos programar.
En 2016, un grupo de investigadores del MIT Media Lab crearon ‘Moral Machine’, un juego de ética que planteaba a los participantes el tipo de cuestiones éticas que, dentro de poco, tendrán que resolver los vehículos sin conductor. Han reunido más de cuatro millones de respuestas y ahora tenemos los primeros resultados.
El código moral
«No abrimos el cerebro de la gente para analizar sus neuronas y ver si son éticas, lo que hacemos es observar su comportamiento». Así explicaba Iyad Rahwan, profesor del MIT, el proyecto en el que se basa 'Moral Machine'. Con él, Rahwan aspira a encontrar un consenso moral para resolver preguntas cruciales que, en los próximos años, decidirán la vida y la muerte de muchas personas en carreteras de todo el planeta.

Desde el lanzamiento de ‘Moral Machine’ en 2016, más de cuatro millones de personas participaron en el test y respondieron cosas como "¿Qué vida debe proteger un coche autónomo la de sus ocupantes, la de los peatones, la de otros ocupantes? ¿De qué depende esa elección? ¿De la edad, del género, del número, de la especie de los implicados?".
Se incluyeron decenas de combinaciones que tratan de captar los factores de los que depende el juicio moral. La tarea es colosal. Tanto que según el propio Rahwan, a día de hoy se trata del estudio de ética global más grande jamás realizado.
Y no, no está completo. Está previsto que los resultados se publiquen a finales de año, cuando quedarán disponibles para ser utilizados por quien quiera dotar de ‘programación moral’ a los robots. Pero tras el primer atropello mortal de un peatón, Rahwan ha revelado algunas conclusiones en el Foro Global de Educación y Habilidades en Dubai.
Por ahora no hay acuerdo

El equipo de Rahwan descubrió que, cuando se trata opciones simples como golpear a un niño o a un adulto, los resultados son claros: al adulto. De hecho, cuánto ancianos son los peatones, más 'prescindibles' son a ojos de los participantes del experimento.
Sin embargo, cuando los dilemas se volvían más complejos, el acuerdo desaparecía. Por ejemplo, la disyuntiva entre atropellar a una persona cruzando la carretera legalmente y atropellar a dos personas que la están cruzando de forma ilegal, las respuestas se dividían al 50%.
Si estaba en juego la vida del participante, hasta el 40% de los participantes declararon que daba igual a quién hubiera que matar. Lo principal era preservar la vida del participante. Esto es tremendamente interesante porque, aunque no lo parezca, lo que tenemos entre manos va más allá de los coches autónomos. En realidad, estamos ante el intento de resolver uno de los grandes temas irresueltos de la Historia.
¿Sabemos lo que es el bien?

Ante esto, hay dos grandes posturas fundamentales. La de Derek Parfit que piensa que, aunque todas las tradiciones morales parecen distintas, en realidad son como escaladores subiendo la misma montaña por diferentes rutas. Es decir, hay diversidad de valores y normas morales, pero todas acaban convergiendo en la cima.
Frente a él, Alasdair MacIntyre defendía que aún no hemos llegado a un consenso moral sobre qué es bueno y qué es malo porque nuestros valores son incompatibles entre sí. Son tradiciones sociales y comunitarias enfrentadas (y esto es crucial) en su aplicación de la racionalidad práctica. Es decir, no seremos capaces de encontrar un consenso general para cada problema ético con el que nos encontremos.
Llevamos siglos discutiendo sobre este tema y, por primera vez, hemos desarrollado un gran experimento capaz de arrojar un resultado práctico. ¿Seremos capaces de programar moralmente automóviles para que actúen correctamente? ¿Existe una concepción del bien en la que estemos todos de acuerdo? 'Moral machine' tiene mucho que decir sobre el futuro de la robótica.
Ver 57 comentarios
57 comentarios
rotodosshur
Pobres viejos
El coche no puede detectar traperos, swagers y demas morralla?
albertitoito
Definitivamente no vamos a ver coches autónomos en este país en los próximos 20 años. El PPSoe no se va a arriesgar a quedarse sin su massa crítica de votantes.
miguelalvarez2
Esa pregunta es un caso filosófico, porque realista no es. Me explico (y siento el tochotexto):
Parte de la idea de que todo haya ido mal desde un principio, y no un par de cosas, no, un cumulo de casualidades.
-Parte de la premisa de que el coche autónomo (Nivel 5, el autónomo real) haya superado el limite de velocidad permitido en la vía que corresponda para asegurar la integridad de los pasajeros o de los transeúntes frente a una adversidad ( ej que vaya a mas de 50 dentro de ciudad) y eso suponiendo que cuando estos coches se popularicen siga habiendo esos límites de velocidad.
-Segundo (habiéndose saltado lo primero por algún motivo) está suponiendo que todas y cada una de las medidas de seguridad (como los frenos, que al igual que los camiones pueden llevar varios tipos de ellos por si alguno falla, algunos sistemas pasivos, que no requieren energía, etc) fallen de la peor manera posible. Esto es que fallen todos y que, aun así, no salten ni alarmas ni se activen medidas de seguridad pertinentes (ej; falla el freno principal y el coche se para porque es obligatorio que todos los frenos estén en buen estado para funcionar, o que directamente no arranque si detecta algo fuera de lo normal, protocolo de seguridad vaya).
-Tercero (habiéndose saltado lo que conlleva el primero y segundo). Que no desacelere ni siquiera por fricción o algún sistema pasivo o manual que los usuarios puedan activar (como hay frenos de emergencia en trenes y demás que son sistemas independientes del principal precisamente por si falla este).
-Cuarto, que por alguna razón falle todo lo anterior y aun así el sistema de conducción funcione y siga acelerando (o no). O sea, que se haya estropeado todo lo anterior y que dé la casualidad, que el sistema de conducción autónoma funcione mal porque si (saltándose lo anterior citado), básicamente. Y no se active ninguna de las medidas anteriores.
-Quinto. Que en el momento en el que se popularicen los coches autónomos se sigan manteniendo las infraestructuras que tenemos a día de hoy (pasos de cebra, carreteras al lado de aceras, etc) que no haya una “vía de servicio” por decirlo así, para separar lo peatonal de lo que no lo es u otras medidas de seguridad. Esto lo pongo porque se prevé que el tráfico será más fluido porque estarán conectados unos con otros y todo vaya más “rápido y eficiente “, por así decirlo, ya que tendrán la capacidad de organizarse mejor.
En este momento, preguntarse si tiene sentido hacerse esa pregunta va perdiendo sentido. En mi carrera me lo han preguntado alguna vez, pero solo la gente que es ajena completamente a mi carrera.
Es difícil imaginar que se ponga como caso común algo que es tan difícil que pase. Porque no es mas que una pregunta filosófica de esas que están bien para pasar el rato (tipo “¿el fin justifica los medios?”) pero que en la vida real no tienen sentido, o si lo tienen, es algo tan rebuscado que no hay por donde pillarlo o el cumulo de casualidades lo hace casi imposible.
Así lo único que se consigue es confundir a la gente y que se cree paranoias a cerca de esto. Como otras muchas cosas apocalípticas que se han dicho de la tecnología y la ciencia.
racinguista
Creo que a veces nos montamos cada película que ni con un guionista de Hollywood lo mejoramos. Tengo claro, pero muy claro, que nunca jamás compraré un coche que decida, en cualquier circunstancia, matarme a mí que matar a alguien que cruza la carretera por donde no debe. Lo tengo claro porque si el coche es mío podrían ir dentro las personas que mas quiero en el mundo y eso para mí sería inaceptable. No compraría nunca un coche así, si otros quieren, perfecto, yo nunca. El coche autónomo debe buscar en todo momento la opción que no me dañe y en un nivel inferior que no dañe a nadie y siempre la prioridad será salvarme, si no es así, prefiero conducir yo.
Usuario desactivado
Es sencillo y lo explicaré:
- Una máquina JAMÁS debe poder elegir "matar".
- Una situación dada sólo tiene las siguientes opciones: no hacer nada y dejar que muera X, o hacer algo y que muera Y. La máquina debe dejar que muera x PORQUE UNA MÁQUINA JAMÁS DEBE PODER ELEGIR MATAR.
- Una situación dada sólo tiene las siguientes opciones: no hacer nada y dejar que mueran 100 personas, o hacer algo y matar a 2. La máquina debe dejar que mueran 100 personas PORQUE UNA MÁQUINA JAMÁS DEBE PODER ELEGIR MATAR.
- Y ya está.
piskeante
para mí, solo hay una pregunta importante en esto:
Los coches autónomos van a preservar la vida de los ocupantes del vehículo o los de fuera??
Mi respuesta es evidente: el coche autónomo debe de preservar mi vida antes que los de fuera.
whisper5
Todo esto lo explicó muy bien y con humor Iyad Rahwan en una charla de TED en 2016:
https://www.ted.com/talks/iyad_rahwan_what_moral_decisions_should_driverless_cars_make
abceddn
¿Que son retrasados? La máquina siempre debe proteger a su dueño sobre cualquier otro ser. Ahí lo tienen dilema resuelto.
Si tiene que pasar sobre 20 bebés para salvar tu vida de 80 años, pues es lo que tiene que hacer, si no que se dejen de sus tonterías de autónomos y se quede todo como está, pues yo estaría drogado si compro algo que no me garantice mi seguridad hasta donde sea físicamente posible y no moralmente posible.
BackFlash
Aplicando las leyes de la robótica de Asimov (Un robot/auto no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.), la computadora de a bordo le pasa el control del auto al chofer y se acabó el dilema.
advanc3
La respuesta es simple, nosotros la hacemos complicada con debate éticos que una IA no debería tener.
Una IA en un vehículo autónomo debe proteger la vida de los ocupantes como primera prioridad, la de los viandantes en segundo plano. Y siempre y cuando se presente una elección de a que viandante dañar, debe dar una respuesta aleatoria.
Porque aleatoria? Porque los humanos también tenemos respuestas diferentes cada uno, y mientras mas se complica la elección, mas se diversifica la opinión. Así que el ordenador debe elegir aleatoriamente, para que no implique mas que a la suerte y no la ética.
Tamak
Es más simple de lo qu eparece, la maquina no tiene que elegir. Un coche autonomo no debería nunca atropellar a nadie pero si ocurriese es como cuando estas conduciendo y no puedes evitar atropellar a una persona o animal, frenas y intentas k lo atropelles a menos velocidad, no vas a desviar el coche para que pase algo peor. Cuando aprendes a conducir te dicen bien claro si te cruza un gato que debes hacer? pues si es inebitable lo atropellas no vas a estamparte contra un arbol por un gato, lo mismo si estan cruzando mal, ya que si estan cruzando bien nunca deberían de ser atropellados.
Ademas si se da a elegir mejor matar a viejos en vez de a niños entonces mejor cuando seas viejo no salgas nunca porque los coches te van a elegir como objetivo, no tiene sentido, o sal siempre en grupo porque a si no te eligen, no tiene sentido tampoco.
En resumen un coche autonomo tiene que predecir todo lo legal, los que se salten las normas alla ellos tal como hoy en día.
BackFlash
Viendo las noticias de los muertos en Canadá me imagino que los locos o terroristas o lo que sea que quieran usar los autos como arma se las van a ver dificil.
Flycow
Me parece desaconsejable y peligroso basar una decisión de vida o muerte en una ilusión ilusion subjetiva cuyo único fin es causar que nos dañemos a nosotros mismos como es la moral. Y la prueba de ello es que tienes un 60% de personas que piensa que la vida del mismísimo dueño del vehiculo no es prioridad.
Usuario desactivado
Si dejan que vote la gente, le pasara como a la inteligencia artificial de microsoft que termino siendo racista.. Una IA que discrimina racialmente seria lo peor que podria pasar.. Asi que no, estos experimentos no acabarian nada bien..
opiwww
atropellar a un viejo/a o a un niño/a ...
yo digo que al niño.
coche autonomo = carmageddon ?
perelengo
Para estos temas estan las leyes. La ética es una cosa y las leyes otra, si tu coche decide matar, ¿quien tiene la culpa? El ingeniero, el programador, el directivo, el ocupante? Yo como ingeniero, no me arriesgaria a trabajar en ello sin unas directrices muy claras que me eximan de responsabilidad, o en caso contrario, ¿asumiria la responsabilidad de nose 30000 muertes x accidente por el hecho de que mi jefe quiera cumplir plazos??
¿Si los medicamentos tienen un proceso de validación de 15 años, un coche no debe tener el mismo proceso de validación? En caso contrario, ¿por que no dejamos que nos vendan veneno que pueda matarnos a nosotros, a los nuestros y al resto?
vistaero2
"¿Existe una concepción del bien en la que estemos todos de acuerdo?"
El bien no tiene nada que ver aquí. Todas las respuestas son malas. La cuestión es elegir la menos mala. La menos mala es la que menor cantidad de intereses éticos frustra.
¿Atropellar a un peatón que cruza por donde debe o a dos por donde no deben?
Por reprochable que parezca, debe atropellar al que va solo, por la simple razón de que se evitan más muertes.
¿Qué motivo tendría para matar a más personas? ¿castigarlos? ¿desde cuándo se castiga de esta manera a quien cruza mal?
Además, que alguien esté cruzando mal no significa que su vida sea más respetable que alguien que está cruzando bien. ¿Y si los dos que están cruzando mal corrían para ayudar alguien, y el que cruzaba bien es un asesino en serie?
El vehículo no puede saber qué valor tiene cada persona, así que se debe limitar a matar a las menos posibles.
Y como ya dijo otro comentario, todo esto suponiendo el peor de los casos. En el que todo falle, desde los radares, que como ya ha demostrado el AutoPilot de Tesla en muchas ocasiones, se puede anticipar a los accidentes, hasta los frenos tradicionales y el freno motor, siendo éste último súper potente en el caso de los vehículos eléctricos, así que muchos de esos casos son técnicamente extremadamente improbables, por no llamarlos imposibles.