Hace poco Google anunciaba que sus coches autónomos ya habían recorrido más de un millón de kilómetros mientras que Morgan Stanley opinaba que los coches autónomos serán algo normal en nuestra sociedad para el año 2025. El coche autónomo plantea cuestiones morales y filosóficas que abren un interesante debate.

Las leyes de la robótica
En el año 1942, Isaac Asimov escribió tres leyes de la robótica en su relato "Runaround" en las que se establecían lo siguiente:
Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.
Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.
Más tarde añadiría una cuarta ley, conocida como la ley cero:
- Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.
A pesar de que estas leyes son ficción, son una buena base filosófica sobre cómo podrían convivir la inteligencia artificial y nuestra sociedad. Si los coches autónomos se atuvieran a estas normas, no habría motivos para preocuparse, ¿verdad? (dejando a un lado el argumento de que los coches autónomos van a suponer desempleo para los taxistas y camioneros o que no deberían existir de acuerdo a las leyes 0 y 1ª).
El dilema del tranvía
Sin embargo, hay un problema que las leyes de la robótica no pueden resolver. El famoso experimento en filosofía del dilema del tranvía que plantea lo siguiente:
Un tranvía se dirige a cinco personas que están atadas a las vías y no pueden moverse. El tranvía va directo y las matará, pero tú te encuentras al lado de un botón. Si le das al botón, el tranvía cambia a otra vía donde solo hay atada una persona. Tienes dos opciones:
No hacer nada, lo que supondría que cinco personas morirían en la vía principal.
Darle al botón, haciendo que el tranvía cambie de vía y mate a la otra persona.
¿Qué deberías hacer?

Es fácil imaginarse una situación en un mundo con coches autónomos donde el coche tenga que enfrentarse a una decisión similar.
Por ejemplo, un coche conducido por una persona se salta un semáforo en rojo, dándole al coche autónomo dos opciones:
Puede seguir su curso y chocar contra el coche en el que hay una familia de cinco personas.
Puede girar a la derecha y chocar contra otro coche en el que solo hay una persona, matándola.
¿Qué debería hacer el coche?
Desde un punto de vista utilitario, la respuesta es obvia: debería girar a la derecha (o "darle al botón") matando solo a una persona en vez de a cinco.
De hecho, en una encuesta a filósofos profesionales sobre el dilema del tranvía, un 68,2 % estaba de acuerdo en que hay que darle al botón. Puede que en realidad no sea un "problema" y que la respuesta sea simplemente decidirse por la idea utilitaria de "cuantos más se salven, mejor".
¿Pero podrías imaginarte un mundo en el que tu vida pudiera ser sacrificada en cualquier momento para salvar las vidas de otros sin haber hecho nada malo?
Imagínate una versión del dilema del tranvía con un hombre gordo:
Al igual que antes, un tranvía se dirige hacia cinco personas. Tú estás sobre un puente y puedes pararlo poniendo algo muy pesado delante. Pues bien, hay un hombre muy gordo a tu lado y la única forma que tienes de parar el tranvía es tirarlo por el puente a la vía, matándolo para salvar a cinco personas. ¿Deberías hacerlo?
La mayoría de la gente que opta por la opción utilitaria en el problema inicial no mataría al hombre gordo. Pero desde un punto de vista utilitario, no hay diferencia entre estos dos problemas, entonces ¿por qué la gente cambia de opinión? ¿Acaso la opción correcta es "no hacer nada"?
El imperativo categórico de Kant intenta explicarlo:
Obra sólo de forma que puedas desear que la máxima de tu acción se convierta en una ley universal.
En otras palabras, dice que no se justifica que usemos a seres humanos como medios para alcanzar algo. De ahí que no esté bien matar por el mero hecho de salvar a otros, algo que nunca sería una opción según el imperativo categórico de Kant.
Otro problema que supone el utilitarismo es que es un poco vago, al menos por definición. El mundo es complejo, por lo que rara vez la respuesta es simplemente hacer aquello que salve más vidas. Pongamos que en el ejemplo del coche en vez de una familia de cinco personas hubiera cinco delincuentes que acaban de robar un banco y en el otro coche hubiera un científico con un futuro prometedor que acaba de hacer un descubrimiento para la cura del cáncer. ¿Seguirías queriendo salvar al mayor número de personas?
Podemos cambiar la definición de utilitarismo y hacerla más compleja dándole un valor a la vida de cada individuo. En cuyo caso la respuesta correcta podría ser matar a los cinco ladrones si consideramos que la vida del científico vale más que la vida de los cinco ladrones.
¿Pero puedes imaginarte un mundo en el que, por ejemplo, Google o Apple pongan un valor determinado a nuestras vidas y que sea un referente en cualquier momento para matarnos y poder salvar a otras personas? ¿Te parecería bien?
He ahí la cuestión. Si bien el problema parece sencillo, en realidad es bastante complejo e interesante. Es un dilema que seguirá apareciendo una y otra vez a medida que los coches autónomos sean una realidad en el día a día. Google, Apple, Uber, etc. tendrán que pensar en una respuesta para este problema. ¿Darle al botón o no darle al botón?
Por último, quiero plantear otra pregunta que también necesitará respuesta: la propiedad del coche. Digamos que un coche autónomo con un pasajero, su dueño, patina bajo la lluvia y va a chocar con otro coche, tirándolo por un precipicio. Puede dar un volantazo y caerse por el precipicio o seguir de frente y cochar contra el otro coche, tirándolo por el precipicio. Ambos coches tienen un pasajero. ¿Qué debería hacer el coche? ¿Debería actuar favoreciendo a la persona que lo ha comprado, a su dueño?
Ver 37 comentarios
37 comentarios
xnok
Siempre actuara de la forma mas favorable al fabricante. En este caso impactara contra el coche de la familia. Estos son los culpables y el fabricante quedara exonerado de culpa. Si decidiese impactar contra el coche de 1 pasajero debería responder legal y económicamente de esta decisión.
aberanta
Quizá sea demasiado pragmático pero... Yo dejaría el coche sin capacidad de decisión.
Un robot (sea coche o cualquier otra cosa) debe defender la vida por encima de todo, no tiene que evaluar la acción de salvar esa vida.
Siguiendo esta lógica el robot no decidiría matar a uno para salvar a cinco, sólo se limitaría a evitar la colisión con el que va de frente (sin evaluar que conllevaría eso) y al girar se encontraría la situación de que aún así mata a alguien (y el robot intentaria, aún así, salvar la situación aunque no pudiera)
En resumen, la programación debería ser "haz lo que puedas para salvar esa vida y dedica toda tu memoria procesador... recursos, únicamente a esa tarea, no hay tiempo para evaluar más allá".
Se podría dar el caso contrario, si girara mataria a 5 n vez de 1... lastima. O más drástico aún, de que para salvar a una viejecilla de 99 años, con andador y respirador... vamos, ya sentenciada, tuviera que chocar contra una central nuclear reventandola y matando a media humanidad... Mala suerte. En este caso nos deberíamos plantear si queremos coches autónomos o no, pero nunca nunca programarles para que evalúen quien vale más y quien debería morir.
neardenthal
Una persona (en éste caso el creador del coche autónomo) no puede decidir quien vive. Lo que debe hacer el coche es evitar en lo posible la muerte, siempre siguiendo las reglas.
herpesg666
Personalmente lo tengo claro, yo mataria a los 5 con el tranvia y al otro a golpes. Somos 7000 millones, no creo que importe nada.
Estas disquisiciones sobre el tranvia, el hombre gordo, ... son estupidas.
El juego consiste en engañar al grupo para que cada jugador elija una opcion, y asi poder decir que es dificil decidir. Pero no lo es.
El tranvia:
- Si el que puede desviar el tranvia es el culpable de que no pueda frenar a tiempo, tendra que matar a 1 (porque, sin mas datos, el daño es menor). Por supuesto tendra que ir a la carcel por asesinar voluntariamente.
- Pero si no tiene nada que ver con el fallo del tranvia, lo correcto es dejar que mueran 5,
Pero hay mas factores: Si los cinco son viejos, o ya tienen hijos, ... y el 1 es joven o todavia no tiene hijos o ..., es mejor matar a 5 que a 1. Pero claro eso no son datos del juego porque lo que se busca es la incertidumbre para que la decision sea igual de buena tirando una moneda al aire.
El del gordinflon mejora ligeramente porque deja claro que es un asesinato.
Sporty
Pero bueno, es que esos dilemas no los tiene ningún conductor. Lo único que procuramos es evitar el accidente, no analizamos si los que van en el otro coche son delincuentes, altos, bajos, curas, fuman o llevan un cachorrito supermono.
Igualmente tampoco vamos salvando vidas chocando adrede contra vehículos ni nada. Simplemente evitamos no chocar y punto. Pues eso debe hacer el coche autónomo (siempre con una posibilidad para invalidarlo claro, por encima de todo la decisión del conductor)
cabeseloco
Por ejemplo, un coche conducido por una persona se salta un semáforo en rojo, dándole al coche autónomo dos opciones:
Puede seguir su curso y chocar contra el coche en el que hay una familia de cinco personas.
Puede girar a la derecha y chocar contra otro coche en el que solo hay una persona, matándola.
¿Qué debería hacer el coche?
Girar a la izquierda!!!!! o detenerse al detectar que otro vehículo se salta el semaforo... esa seria la lógica.
josemiguelsolisgarcia
El conflicto es más sencillo en una máquina que en un humano. La respuesta es sencilla: entropía.
Tras un trascurso de acontecimiento fortuitos, lo más lógico es no evitarlo, salvo que por inacción nosotros suframos un daño.
En el dilema del tranvía una máquina no apretaría el botón, morirían los 5. Ya que es el hecho lógico que se estaba desencadenando. Más si aplicamos las leyes de robotica de Asimov, haría una división a 0, resultado: bloqueo de la máquina, sucesión de hechos fortuitos.
Cuando un ser humano es preguntado por ese dilema, entran en juego conflictos éticos y sociales (o vinculación emotiva en el caso de existir) propios de la cultura donde vivimos. Por ello la mayoría pulsaría el botón. Pero lo más correcto sería no hacerlo, no se puede baremar el peso de una vida.
Atribuir algoritmos que ponderen la vida de quien sacrificar, es cuanto menos grotesco. El único algoritmo que debería permitirse es aquel que proteja a los usuarios del propio vehículo con métodos no lesivos para otros, llegado el caso dejar al evento seguir su curso.
Por lo tanto, en el dilema del semáforo, nuestro vehículo impactaría contra el que se interponga en nuestra dirección prefijada, maniobrando para ofrecer la colisión más favorable para nosotros y activando los sistemas de seguridad.
Si se entra en el peligroso juego de crear algoritmos que den un peso a la vida, llegaríamos a situaciones incomprensible para nuestra ética: En caso de una colisión viajando con nuestra familia ¿que posición del vehículo debe recibir el mayor impacto?. Cualquier conductor, llevado por la emotividad, elegiría la suya, pero una algoritmo podría decidir la de tu hijo/a.
Saludos.
Javier Jimenez
¿Y si esos ladrones han robado también el coche y este pertenece a otro científico(y este aun no denuncio el robo)? En realidad habría debate para mucho tiempo con esto y gran cantidad de posibilidades.
Sinceramente yo creo que los coches autónomos deberían implantarse todos a la vez, es decir o son todo coches autónomos o no que no circule ninguno. Ya que en teoría si todos fuesen coches autónomos no cometerían estos fallos. Y también podrían interconectarse para conocer velocidades en tiempo real para acelerar o frenar en función de los otros coches cruces de vías e incorporaciones.
acerswap
La solucion es muy simple: el coche se pararía, no chocaría con nadie.
migcpp
Primera regla. No dar volantazos sólo frenar. Es un error típico de novato girar ante un peligro provocando una situación peor y a más velocidad.
deft
Este dilema del tranvía suena tan absurdo aplicado a los coches autónomos. Es obvio que antes de echar andar solos a los automóviles, se tiene que cuidar al máximo cada cuestión de seguridad. En caso de un choque inminente, no habría ninguna necesidad de dar un golpe de volante hacia otra dirección, poniendo aún más en riesgo a los tripulantes del auto y a terceras personas. A lo que voy es que: Es más que evidente que, alcanzado el punto de la conducción autónoma, un choque entre dos vehículos debería ser manejado como pan comido, con elementos de seguridad mucho más avanzados que los de hoy (no lo se, tal vez algo tipo se llena el habitáculo de espuma, como en demolition man... si, tal vez me fume un poco, es solo un ejemplo).
vaxkex
El simple hecho de plantear etiquetar a las personas por más importantes o menos importantes es una aberración y es triste. Por eso yo estoy a favor, en todo caso, de asistencia en caso de colisión inminente, pero nada de conducción autónoma al 100%.
Que lo mismo que supuso el ABS supongan estas ayudas, y conseguirán bajar de manera brutal los accidentes y muertes en carretera, y lo veo suficiente.
achimpun
En este caso el coche autonomo, en tiempo real, debería evaluar la probabilidad de sufrir un accidente en ambos casos y multiplicar esta probabilidad por la criticidad del accidente en cada caso. Entonces el coche debería tomar la decisión que minimice el producto de ambos factores.
Esto en HW/SW crítico (trenes, aviones, coches...) se conoce como análisis de fallos y criticidad (FMEA/FMECA). Normalmente este análisis se realiza a priori considerando todos los fallos posibles y en este caso el coche podría efectuar este análisis en tiempo real teniendo en cuenta todas las variables que se consideren oportunas.
Yo también añadiría una variable a la ecuación que sería que el coche que no ha cometido la infracción puede ser considerado más inocente que el coche infractor por lo cual también podría utilizar este factor en la decisión.
También siguiendo el caso propuesto de 5 delicuentes y un científico prometedor, en un futuro no muy lejano el coche autónomo podría saber quién está en el otro coche (porque por ejemplo lleva un móvil) y aplicar un factor de ponderación a su vida en función de lo buena o mala persona que sea aunque aquí ya entrarías en discusiones morales de si todos somos iguales o no.
pms74
Desde mi punto de vista hay que simplificar:
1-. El coche autónomo deberá evitar cualquier colisión.
2-. Si no es posible evitarla, colisionara de la manera mas controlada posible, para causar el menor daño.
No se debe valorar cuantas personas hay en el resto de coches. Esto seria similar a lo que realiza una persona ante una situacion de peligro, donde no tiene tiempo de pensar en otra cosa que en no colisionar.
El azar, como hasta ahora, decidirá quien vive y quien muere. No Apple, ni Google, ni Tesla...
manuagle
programar los vehiculos para conocer la situacion en tiempo que de cuenta de frenar y no matar a nadie. si tienes tiempo de saber si hay un señor atado o una familia de 5, tienes capacidad de frenar con tiempo.Por ejemplo, la capacidad de frenado de vehiculo en la peor situacion posible es de 60m a 80km/hr, sondear vehiculos y el terreno a 100m cada 2.5seg llendo a esa velocidad y ajustar el algoritmo proporcionalmente a la velocidad,lo cual es sumamente facil con la tecnologia y poder de procesamiento actual, aseguraria que no se tuvieran que tomar decisiones de ese tipo ni que las compañias le pongan un precio a nuestra existencia.
Resuelto.
pepbob
Que todos tengamos un número que determine el valor de nuestra vida, si hay opción de matar a 1 que tenga 20 puntos o 5 que tengan solo 2 cada uno, se elige la vida del que más, puesto que vale más que los otros 5 juntos