Las tres leyes de la robótica creadas por Isaac Asimov siguen siendo consideradas por muchos como las bases efectivas del comportamiento de estas máquinas, y ahora la primera ha sido cuestionada por un experto en robótica del Laboratorio de Robótica de Bristol.
Los experimentos llevados a cabo por Alan Winfield tenían como objetivo situar a los robots ante una trampa ética. La primera ley de la robótica, "Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño", provocaba precisamente que los robots utilizados en las pruebas se quedaran paralizados en numerosas ocasiones.
La prueba a la que sometió Winfield al robot era sencilla: lo programó para que tratara de salvar a otros autómatas (que el robot estaba programado para ver como humanos) de caer en un precipicio. En primera instancia el comportamiento del robot era correcto, y cuando un solo "humano" iba a caer, el robot lo evitaba rápidamente.
El problema surgía cuando había dos "humanos" en dirección al precipicio al mismo tiempo. En ese caso, el robot se veía forzado a elegir. Unas veces lograba salvar a uno de los dos e incluso a los dos, pero en 14 de las 33 pruebas el robot se quedó literalmente paralizado. Winfield indicó que en esos escenarios el robot se convertía en un "zombie ético" que no tenía elección debido a su programación.
El estudio de este experto dejaba claro lo complicado que es tratar de programar a un robot o a un sistema automatizado para tomar decisiones de tal relevancia en ciertos escenarios. Ya hablábamos del tema al hablar del coche autónomo del futuro, y cómo esas situaciones límite pueden provocar decisiones polémicas por parte de los algoritmos que deciden la acción a seguir. De hecho, parece que en esos casos la única solución válida es la que tomamos los humanos, y que es, sorprendentemente, aleatoria.
Vía | NewScientist
En Xataka | ¿Debería tu coche autónomo ponerte en peligro en caso de accidente si así se salvan más vidas?
Ver todos los comentarios en https://www.xataka.com
VER 45 Comentarios