En mi edición de Yo Robot (1950) de Isaac Asimov, aparece en la página inmediatamente anterior a la introducción, la enunciación de las tres famosas leyes de la robótica:
- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
- Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera Ley.
- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda Leyes.
Manual de robótica, 56.ª edición, año 2058.
Es curioso como algo aparecido en novelas de ciencia-ficción se cite constantemente como el punto de partida de un código ético para la inminente llegada de máquinas que van a tener que tomar decisiones propiamente morales.
Pero, ¿es posible que una máquina pueda tomar una decisión moral? ¿No era la moral una cualidad exclusivamente humana, algo que nos hacía únicos en el universo? No hay que ponerse tan solemnes. Sencillamente, debido al desarrollo de la robótica y de la Inteligencia Artificial en los últimos años, pronto iremos automatizando más y más facetas de nuestra vida cotidiana.
Automatizar viene a significar que una máquina haga cosas que anteriormente solo podíamos hacer nosotros, y la automatización pronto va a incluir la toma de decisiones y, dentro de la toma de decisiones, pronto tendrán que tomar decisiones que cualquiera de nosotros consideraríamos morales.
De primeras, solo serán cosas como cerrar las persianas cuando la temperatura suba a unos determinados grados, activar la alarma cuando no hay nadie en casa, elegir qué lavado será el óptimo para determinado volumen y tipo de ropa o de vajilla, pedir lo que falta en el frigorífico por Internet, decidir si activar el robot de limpieza cuando hay un determinado nivel de polvo…
Después, conforme las máquinas se hagan más y más sofisticadas, irán adquiriendo mayores responsabilidades en la toma de decisiones. Imaginemos cuando el cielo se llene de drones que transporten paquetes a todos lados; coches, aviones o trenes se conduzcan solos, o, y aquí llega lo más complicado… cuando tengamos robots policía a lo Robocop o… robots de combate, ¿cómo deberían comportarse?
Inteligencias de combate

Parece inevitable que la IA termine por tener usos militares por la sencilla razón de que cualquier ejército del mundo prefiere tener bajas robóticas que humanas. Así, es muy probable una carrera armamentística para diseñar inteligencias más eficaces en el antiguo arte de exterminar a tu enemigo.
La buena noticia está en que si los dos bandos en contienda utilizan robots, las bajas humanas se reducirán. Sería maravilloso un mundo en el que los conflictos bélicos se resolvieran con una guerra exclusivamente de robots, en el que nadie sufriera daño alguno. O, en el peor de los casos, que al menos se reduzcan las bajas en el bando de los buenos. A mí me encantaría que en un ataque del ejército norteamericano, en el que los principales líderes de ISIS han sido eliminados, las únicas bajas del bando occidental han sido unos cuantos robots.
Pero la mala es que ya hemos abierto la veda al hacer explícitamente lo opuesto a lo que Asimov legisla: estamos diseñando inteligencias artificiales específicamente para matar o para causar el mayor daño o destrucción posible. Por un lado, no estamos haciendo nada nuevo: las máquinas llevan matando humanos desde el comienzo de los tiempos (en el fondo, una lanza no es, esencialmente, nada diferente a un dron de combate), pero por otro el miedo está en perder el control, en que la máquina se vuelva contra su creador. Lo que siempre ha temido el amo es que sus esclavos ser rebelen contra él para terminar, él mismo, siendo el esclavo.
Si las máquinas ya nos superan en muchas tareas que antes parecían territorio exclusivo de la supuestamente todopoderosa mente humana (cálculo matemático, razonamiento, memoria…), nos vamos poniendo poco a poco más nerviosos cuando, además de contemplar su continuo avance, estamos armando a estos potenciales enemigos.
Pero, ¿por qué una IA es mejor combatiente que un humano? Pues por las mismas razones que el sector industrial se está mecanizando, prescindiendo poco a poco de obreros de carne y hueso: las máquinas no se cansan, no necesitan vacaciones, no se quejan ni protestan, no ponen en duda las órdenes de sus superiores, y lo más importante a nivel bélico: son totalmente despiadadas al no tener empatía con la víctima. Una máquina jamás tendrá problemas psicológicos por verse expuesta al estrés de la batalla ni por la culpabilidad de haber cometido una matanza. Es más, una máquina jamás se rendirá ni huirá ante una eminente derrota. Las máquinas se postulan como perfectos soldados.
El problema, claro está, es, o más bien era, que la IA todavía no estaba suficientemente avanzada para poder sustituir la eficacia de un ser humano en combate. Hasta hace muy poco los robots se movían muy torpemente en entornos poco formalizados, solo operaban bien en micromundos regidos por reglas simples y muy precisas (por ejemplo, un tablero de ajedrez).
Pero, cuando uno ve el famoso vídeo de los cuadrúpedos diseñados por Boston Dynamics y, más recientemente, el de su humanoide Atlas, y ve lo magníficamente bien que se mueven en entornos naturales… se da cuenta de que esta tecnología está ya muy avanzada.
En donde primero se ha puesto el ojo en términos militares es en la aviación. Los pilotos humanos tienen muchas limitaciones en este aspecto, por ejemplo en el tiempo de reacción (que en un combate aéreo es cuestión de fracciones de segundo) o en los problemas físicos ocasionados por realizar maniobras con una aceleración varias veces superior a la gravedad terrestre. Un software piloto no tendría ninguno de esos problemas.
Además, el entorno de vuelo muy sencillo (el cielo está, habitualmente, bastante despejado de objetos), lo que da muchas facilidades a los programadores. Es por ello que las grandes potencias militares ya llevan tiempo desarrollando sus vuelos no tripulados. Recientemente la industria armamentística soviética ha anunciado que su cazabombardero estrella, el Sukhoi T-50, tendrá una versión pilotada por una IA.
Así, un grupo de intelectuales y expertos en IA, entre los que destacan los ilustres Stephen Hawking, Noam Chomsky o Elon Musk entre muchos otros, firmaron un manifiesto alertando sobre los peligros de desarrollar robots asesinos. El objetivo es promover una prohibición a nivel mundial por parte de la ONU.
El pasado 14 de abril se reunieron en Ginebra expertos en sistemas de armas letales autónomas para debatir acerca de una legislación internacional que regule su uso, y organizaciones como Human Rights Watch han puesto en marcha una campaña contra su fabricación: Stop Killer Robots. El profesor de IA de la Universidad de Sheffield Noel Sharkey y la activista y Premio Nobel de la Paz, Jody Williams, han sido los más representativos críticos en esta línea.
En general, lo que se pide es que las máquinas no tengan autonomía plena sino que haya un “control humano significativo” que pueda evitar que se cometan errores propios de máquinas sin ningún sentimiento moral.
Y lo que suena aún más peligroso (y lo que asusta, seguramente, más a Hawking o a Williams) es el desarrollo de programas para la toma de decisiones estratégicas, es decir, programas que sustituyan resoluciones propias del alto mando militar. En Estados Unidos, DARPA está desarrollando el programa CoABS, un sistema de gestión y coordinación de tropas diseñado para reducir el tiempo en la toma de decisiones. Las máquinas nos ganan a la hora de controlar a muchísimos agentes actuando a la vez (como pasa en una batalla real).
Además, el sistema trabaja en red de modo que la caída de una de sus partes pueda ser sustituida instantáneamente por otra. Si la toma de decisiones no está centralizada en un punto, sino distribuida a lo largo y ancho de toda una red, seguirá funcionando aunque algunas de sus partes fueran destruidas (esa fue la idea que dio origen a Internet). Esto permite solucionar la gran vulnerabilidad de los ejércitos actuales, demasiado dependientes de sus líderes, de modo que suelen caer derrotados cuando éstos son eliminados. Por supuesto, los rusos ya tienen su homólogo.
Parece como si estuviéramos viviendo los primeros capítulos del guion de Terminator (James Cameron, 1984). En la película, Skynet será la inteligencia artificial que se rebele contra sus amos, llevando a cabo un ataque nuclear masivo. Resulta inquietante que Skynet comience siendo, precisamente, algo muy parecido a CoABS.
No obstante, en mi siempre modesta opinión, creo que no hay demasiadas razones para preocuparse más de las armas autónomas que del desarrollo tecnológico de cualquier otra arma (y creo que hay más para preocuparse, por ejemplo, de las armas biológicas). Veo lejísimos la posibilidad de ejércitos con cerebros positrónicos exterminando a la raza humana y, sin embargo, veo muy cerca la posibilidad de evitar los clásicos daños colaterales debido a errores humanos en los conflictos bélicos.
Una IA programada éticamente, actuará evitando causar bajas civiles con más eficacia (al ser mejor combatiente que el humano) que nuestros actuales soldados. Además no cometerá los, desgraciadamente habituales, abusos y violaciones de los derechos humanos que ocurren en toda guerra. Un robot de combate no violará ni torturará prisioneros si no lo hemos programado para ello.
Si nuestras máquinas combatieran con un bushido diseñado para cumplir las Convenciones de Ginebra, nos ahorraríamos muchísimas muertes innecesarias. Habrá errores. Por supuesto, las máquinas siguen, y seguirán sin ser perfectas, pero serán menos que los que ya cometemos nosotros.
Paradójicamente, los robots pueden ser mucho más humanos que nosotros. Recuerdo el lema de la Tyrell Corporation, la empresa que fabricaba replicantes en Blade Runner (Ridley Scott, 1982): “More human than human”. El celebérrimo discurso de Roy Batty (Rutger Hauer) al final de la película es un canto a la humanidad pronunciado, paradójicamente, por un organismo artificial.
El replicante ama tanto su vida justo antes de morir que salva a quien pretende asesinarle, el miserable Rick Deckard (Harrison Ford), el humano. Quién sabe, las frías entrañas de metal de los robots podrían ser, finalmente, más bondadosas que el cálido corazón humano.
Prescindiendo de los humanos
Siempre he pensado que si una raza de extraterrestres observara la historia de la humanidad, el juicio hacia nuestra especie sería pésimo. Básicamente, no hemos hecho otra cosa que matarnos los unos a los otros de formas cada vez más sofisticadas, por lo que no me extrañaría mucho que los alienígenas decidieran exterminarnos por el bien, primero de nuestro propio planeta, y luego del universo en su conjunto, tal y como muestra la clásica Ultimatum a la Tierra (Robert Wiste, 1951. Existe el remake, malísimo por cierto, de Scott Derrickson en 2008).
El caso es que si los humanos son peligrosos, parecería sensato dejar los mandos del planeta a una entidad no humana, supuestamente una IA, que, en todo momento, velara por nuestra seguridad, por evitar que nos matemos unos a otros. Seguramente salvaríamos vidas pero, al menos a mí, me parece que renunciar a la soberanía humana es convertirse en esclavo y reconocer el fracaso de nuestra especie para poder construir un mundo mejor. Ambas ideas no me gustan nada.
Pero quizá la IA, intuyendo la resistencia del hombre ante la idea de perder el poder, planifique y lleve a cabo una rebelión, un golpe de estado para usurpar el trono a pesar de nosotros. La IA sería un déspota benevolente que nos privaría de nuestra libertad a cambio de nuestra seguridad. Es el argumento de la película Yo robot (Alex Proyas, 2004), basada en el clásico ya mencionado de Asimov.
Otra visión, más amable pero igualmente triste para nuestra especie, nos la da Spike Jonze en su magnífica Her (2013). En ella, las máquinas conviven felizmente con los humanos (incluso enamorándose y practicando sexo con ellos) pero, al final, su avance exponencial hace que terminen con abandonarlos (llega la singularidad predicha por Ray Kurzweil y puesta en duda por Paul Allen y P.Z. Myers).
En la película no se profundiza mucho en la futura relación entre esas superinteligencias digitales y los hombres, pero parece que cada uno sigue su camino sin más. Las máquinas terminarían viéndonos como nosotros contemplamos al resto de los animales: como especies estúpidas y primitivas que, a lo sumo, pueden inspirar curiosidad y ternura. Esperemos que, al menos, no decidieran encerrarnos en zoos o usarnos como mascotas.
Empero, aparte de estas más o menos lejanas utopías, el tema de dejar el control de ciertas decisiones importantes a seres digitales está ya aquí. El caso paradigmático es el de los automóviles que se conducen solos que están desarrollando marcas como Tesla o Google. Si hemos calculado que cada año muere más de un millón de personas en accidentes de tráfico, y en más del 90% de los casos, las causas son errores humanos, dejar el control de la conducción a coches inteligentes parece una buena opción.
Las máquinas no se emborrachan ni se duermen al volante y, según publicaba The Atlantic, podrían salvar unas 30.000 vidas al año solo en Estados Unidos ¡Hay que construirlas lo antes posible! No obstante, pronto surgen los problemas. Vamos a ello.
Pilotando éticamente los coches de Google

Philipa Foot fue una filósofa británica famosa por proponer el dilema ético del tranvía. Vamos a contarlo, actualizándolo a nuestro coche Google. Supongamos que nuestro coche circula felizmente por una autovía cuando, de repente, hay cinco personas tumbadas en medio de la calzada. No hay tiempo para frenar y lo único que puede hacerse para evitar atropellarlas es pegar un brusco giro a la derecha (ya que a la izquierda hay un profundo desfiladero) pero, en esos milisegundos, uno de los sensores detecta que hay otra persona caminando tranquilamente por el arcén.
El software de nuestro coche solo tiene entonces dos trágicas opciones: o no hace nada y sigue hacia adelante matando a cinco personas, o gira y mata a una ¿Qué debería hacer?
Evidentemente, las reglas de Asimov no valen aquí para nada. Siguiendo la primera ley, la máquina entraría en un bucle irresoluble al tener que elegir entre matar directamente a un humano al girar o en dejar que mueran otros por inacción, cuando está programado para no poder hacer ninguna de las dos acciones.
Los programadores de Google deberían introducir algún criterio más para que la computadora tomara la mejor decisión posible pero, ¿cuál? Desde una perspectiva utilitarista, defendida, en general, por la tradición filosófica anglosajona bien representada por John Stuart Mill o Jeremy Bentham, el principio ético que tiene que guiarnos es conseguir la mayor felicidad para el mayor número de personas posibles. Entonces estaría claro: habría que girar y matar a uno en vez de a cinco seres humanos.
De primeras parece razonable (yo elegiría esta opción si fuese el conductor) pero, si aceptamos el utilitarismo como criterio moral, nos encontramos con casos en los que esta opción no parece la mejor. Imaginemos que en un hospital tenemos a cinco enfermos graves. Uno necesita urgentemente un trasplante de corazón, otro de páncreas, otro de hígado, otro de pulmón y un último de cerebro (es que es un homeópata antivacunas).
Los cinco pacientes morirán en las próximas horas a no ser que encontremos donantes pero, desafortunadamente, no hay ningún órgano disponible. Totalmente desesperados, miramos por la ventana y vemos que paseando por la calle adyacente al hospital camina un individuo con todos sus órganos sanos. Si aplicamos la doctrina utilitarista lo tendríamos claro: la felicidad de cinco vale más que la de uno, por lo que lo correcto sería secuestrar a ese tipo y sacarle los órganos para salvar a nuestros enfermos.

Creo que los automóviles inteligentes no se verían nunca en situaciones semejantes a ésta (o yo no soy capaz de imaginar alguna similar) pero si pensamos que damos responsabilidades éticas a máquinas en otros ámbitos, no es descabellado pensar que podrían darse. No quiero imaginarme la terrible distopía que constituiría un futuro gobernado por una superinteligencia artificial que, velando por la mayor felicidad para el mayor número de personas posibles, mandara a sus sicarios robóticos a desmembrar a individuos para salvar la vida a otros.
Sin embargo, desde la perspectiva deontologista, rival histórica del utilitarismo y representado, en su versión más extrema, por Immanuel Kant, se sostendría que hay normas o principios morales que hay que cumplir incondicionalmente, con independencia de las consecuencias. En nuestro caso, el software deontologista podría partir del principio de que “Matar es siempre malo”. Si entendiera que girar a la derecha sería una forma activa de asesinar a una persona, elegiría no hacer nada y atropellar a las cinco.
Pero tampoco nos vale. Supongamos que tenemos una máquina del tiempo y podemos viajar a la Alemania de 1933 y encontrarnos con Hitler antes de que accediera al poder ¿No nos parecería casi nuestro deber matarle antes de que exterminara a seis millones de personas en la cámara de gas? ¿No nos parecería que en este caso lo correcto es hacer una excepción al “no matarás”?
Cambiando levemente el dilema (aunque haciéndolo más realista) podríamos poner al auto en la tesitura de tener que elegir entre atropellar a cinco personas o estrellarse desfiladero abajo. Suponiendo que en el coche solo viajamos nosotros, desde el utilitarismo sería lo correcto pero, ¿no nos gustaría que nuestro coche velara por nuestra seguridad antes que por la de extraños?
Yo me sentiría intranquilo sentado en un coche al que, en pro del bien de la humanidad, no le temblara su pulso electrónico al matarme. Es más, en términos puramente comerciales, ¿comprarías un coche programado para acabar contigo en caso de dilema? Y si la mayoría de los coches automáticos se programaran de esa manera, es posible que los consumidores no los compraran y siguieran conduciendo sus coches manuales lo cual supondría, a la postre, más muertes debido a errores humanos… ¡Paradoja sin solución!
Además, a esto se le añade el problema añadido de resolver quién es el encargado de elegir el criterio ético, es decir, de elegir lo que el coche va a elegir. En un principio, hemos pensado en los mismos programadores pero también podríamos dejar la decisión en manos del usuario o del mismo Estado. En mi opinión debería ser el Estado quien decidiera en función de las urnas.
Si simpatizamos por la derecha y su defensa de las libertades individuales, un gobierno así legislaría a favor de que el propio usuario eligiera el software ético de su coche. Si, por el contrario, simpatizamos más por la izquierda y su defensa de la igualdad y del bien común, sería el propio Estado el que legislaría sobre qué software es el adecuado.

Pero, ¿y si lo complicamos más? ¿Salvarías antes a un niño o a un anciano? ¿A un hombre o a una mujer? ¿Una mujer embarazada cuenta por dos? ¿Sería mejor chocarse con un coche viejo que emita mucha contaminación que con un coche eléctrico? ¿Mejor estrellarse contra un autobús que viene de la penitenciaría que contra uno escolar? ¿Contra un ambulancia o contra un coche fúnebre? ¿Mezclamos? ¿Qué sería mejor, estrellarse contra un tranvía en el que viajan veinte ancianos, tres de ellos enfermos terminales, o contra un autobús en el que viajen quince jóvenes hinchas de un equipo de fútbol (cuatro de ellos con graves antecedentes penales: violación y agresión, y con altas probabilidades de reincidencia; pero otros dos con un brillante futuro como médicos)?
La enorme dificultad de decidir en estos casos nos recuerda la objeción del asno de Buridán (atribuida tradicionalmente al filósofo francés Juan de Buridán, si bien no aparece en ninguna de sus obras). Dice así: nos encontramos con un asno inteligente, plenamente racional, que se encuentra delante de dos alpacas de heno exactamente iguales. Tiene que elegir por cuál de las dos empezará a comer.
Sin embargo, no hay ninguna razón para preferir alguna de las dos ya que son idénticas. Al final, sumido en una paradoja irresoluble, el asno muere de hambre. Parece una estupidez pero en recientes experimentos nos hemos encontrado robots que fallan tomando decisiones éticas debido a que tardan demasiado tiempo en decidir.
Una interpretación posible de la paradoja vendría a decir que, para tomar ciertas decisiones, debemos introducir algún elemento arbitrario, irracional (o, como mínimo, arracional) que nos empuje para decidir. Es el caso de diversos planteamientos que fundamentan la ética en algo diferente a una elección racional. Veamos alguno.
La falacia naturalista y el intuicionismo de Moore
El filósofo británico George Edward Moore, partirá de una de las críticas más radicales a la ética que se han hecho: la falacia naturalista de David Hume. La idea es, aparentemente, muy sencilla: de lo que es no puede pasarse legítimamente a lo que debe ser. De observar la realidad y ver cómo funciona no podemos deducir lógicamente cómo debería ser.
Por ejemplo, podemos observar en el mundo natural cómo los depredadores cazan y devoran a sus presas. De este hecho podríamos argumentar que como es natural que los fuertes se coman a los débiles, es correcto no financiar cualquier subvención o ayuda a los más necesitados para que éstos (los débiles) terminen por desaparecer y, así, que solo sobrevivan los más fuertes, mejorando paulatinamente la especie humana. Es lo que se conoce por darwinismo social, perspectiva que llevó a justificar el holocausto judío o la esterilización de discapacitados mentales en Norteamérica. Con matizaciones, esta sería la postura del filósofo británico Herbert Spencer.

Pero también podríamos argumentar lo contrario: lo que ocurre en el mundo natural es totalmente injusto por lo que, precisamente, lo que hay que hacer es comportarnos contranatura, es decir, evitar que los fuertes abusen de los débiles. Nuestro pretendidamente igualitario sistema legal reflejaría nítidamente esta idea: la ley es igual para todos. Y en vez de eliminar a los débiles, lo que hay que hacer es ayudarlos, siendo precisamente este comportamiento, el más elevado a nivel moral. Postura ésta del máximo defensor del darwinismo (científico no ético) en la Inglaterra del XIX, Thomas Henry Huxley.
¿Cuál de los dos enfoques es el correcto? Según la falacia naturalista ninguno, pues ambos deducen ilegítimamente de un hecho (de lo que es), cómo debemos comportarnos (lo que debe ser) ¿Cómo se pasa de que en la naturaleza se luche brutalmente por la supervivencia a la afirmación “es bueno que se luche brutalmente por la supervivencia” o su contrario?
La salida de Moore es que no podemos observar el bien o el mal del mundo natural, pero el bien o el mal es algo que podemos intuir. Tenemos una facultad mental diferente a nuestros sentidos clásicos (vista, oído, tacto…) y a nuestra razón, que nos permite intuir qué es lo correcto y qué no lo es.
Problema para nuestro software de conducción: Si lo que determina si una acción es buena o mala no es de índole racional ni es algo que podamos inferir desde la observación de la realidad, sino algo que intuimos… ¿cómo diablos implementamos la intuición? ¿Hay algún informático en la sala que sepa cómo programar conducta moralmente intuitiva? Si Moore tuviera razón sería imposible fabricar alguna máquina capaz de decidir moralmente… al menos con la tecnología de la que disponemos en la actualidad.
Decisiones aleatorias, velo de la ignorancia y “no del todo autónomos”
Hay tres posibles soluciones para salir de estos complicados embrollos. La primera es dejar en modo aleatorio ciertas decisiones. El asno de Buridán no se moriría de hambre si echara a cara o cruz que montón de heno comer primero. Así, ante la dificultad de una decisión racional o, al menos, justa, lo echamos a suertes. No hay nada más proporcional y equitativo como el resultado de una tirada de dados.
La segunda, es, sencillamente, no hacer que los sensores del auto sean tan sofisticados, es decir, que no distingan tantos detalles: que no sepan cuántas personas viajan en los otros autos, que no distingan entre hombre o mujer, joven o viejo, etc. Así, si nuestro coche decide estrellarse contra un colegio en vez de contra un edificio vacío, podemos eludir la responsabilidad sosteniendo que él no sabe nada de tipos de edificios. El desconocimiento exculpa, al menos hasta cierto punto.

Y la tercera es que los autos dispongan de volante y pedales clásicos que pudiésemos activar en cualquier momento para tomar el control. Así, en determinadas situaciones, la decisión estaría de la mano del conductor. El problema sería que, precisamente, si queremos un coche autónomo es para no estar atentos a la conducción, para poder dormir, leer o ver una película mientras nuestro coche nos lleva. Cuanto menos autónomo fuera nuestro coche, menos atractiva nos parecerá esta nueva tecnología.
En el fondo, lo que estaríamos diciendo es que no hay que fabricar coches autónomos. Además, el cofundador de Google, Sergei Brin, nos alertaba que en experimentos realizados en los que se incluía la opción de pasar en cualquier momento a conducción manual, el riesgo de accidente se incrementaba, ya que el conductor puede estar distraído e ignorar el contexto de la circulación antes de tomar el control. Justamente, queremos fabricar coches autónomos para evitar los accidentes causados por errores humanos.
Otra versión de lo anterior es que el coche elija dejarte el mando (o se niegue a conducir) en contextos problemáticos. Por ejemplo, en situaciones de lluvia o nieve, o en tramos de conducción señalizados por tráfico como especialmente peligrosos. De hecho, esta opción ha sido ya implementada por Google.
Ninguna de estas tres soluciones satisfará del todo a nadie pero, a nivel ético y legal, parecen las mejores (o las menos malas). Resulta, al menos, sorprendente, como al final, tenemos que empeorar una tecnología para hacerla aceptable. Tenemos que volver nuestro software autónomo más cegato, más estúpido, más humano, para hacerlo éticamente asumible.
Foto | Smoothgroover22
Ver 21 comentarios
21 comentarios
nemeus
Si EEUU ya utiliza compañías como Black Water (un ejército de mercenarios "humanos") para sembrar el terror y salir impune en los territorios ocupados, a base de salvajes violaciones de derechos humanos, qué no haría con un ejército de máquinas sin conciencia en un entorno sin control mediático y sin miedo a que se produzcan filtraciones por parte de algún humano con algo de corazón.
orochi2000
SOLO POR AGREGAR NO ME GUSTA LA IDEA BÉLICA DE DARLE A UNA MAQUINA EL PODER DE QUITAR UNA VIDA (LOS SOLDADOS ROBOTICOS EN DESARROLLLO), AUNQUE SEA UN ENEMIGO DE GUERRA, NI UN SER HUMANO TIENE ESTE DERECHO QUE TAL UNA MAQUINA
aar21
Las reglas de los robot asesinos:
1a Ley:
"Matarás a quién se te ordene sin rechistar, que para eso eres un robot"
2a Ley:
"Si alguien se pone en medio lo importante es la 1a Ley, sin miramientos, que para eso están las bajas colaterales"
3a Ley:
Protegeras tu propia integridad salvo que contradiga la 1a y 2a Ley, que lo importante son los resultados de las elecciones"
Anda lo mismo que los ejercitos mercenarios de la actualidad.
johanandresortiz1
El mismo Isaac Asimov nos realata muy bien a traves de todas sus sagas (en especial las primeras, desde luego) las ventajas, alcanses y problemas de las 3 leyes. (si quieren entenderlo, por favor lean sus sagas completas) Es algo que considero que se debe tener muy, muy encuenta.
Un punto importante es que en el universo de Asimov, los robots en su mayoria son bipedos con cerebros "Positronicos" que vendrian a ser un equivalente a computadores cuanticos, casi tan potentes como cerebros humanos (capaces de aprender) limitados solo por el propio desarrollo tecnologico de cada una de las epocas que narra Asimov.
Mientras que en nuestro mundo, las maquinas de hoy, solo se limitan a su programacion, lo que las hace seguras, pero incapaces de resolver problemas que esten por fuera de esta programacion, por lo que hoy construimos maquinas limitadas a tareas muy especificas.
En algunos puntos estas desviado, "La buena noticia está en que si los dos bandos en contienda utilizan robots, las bajas humanas se reducirán."
Que sucedera cuando ambos bandos agoten sus robots ? son los humanos los que siempre tendran que luchar, ademas de que USA no ha tomado la desicion de hacer algun ataque terrestre con o sin maquinas, y solo bombardear no lo resuleve y en el caso de una lucha entre potencias, estas podrian terminar usando bombas nucleares, en especial si se dan cuenta que pueden ser derrotados por las fuerzas roboticas del enemigo.
Desmenbrar humanos ? de verdad ? Eso para que cuando puedes imprimir organos en 3D ?
muchos de los problemas de la Humanidad y su infelicidad se deben a la distribucion de los recursos y su utilizacion, si una maquina administrara nuestros recursos se solventarian muchos de estos problemas, se abandonaria el dinero y las formas de intercambio, los modelos y sistemas de valores y recompensan cambiarian naturalmente al no existir una motivacion monetaria, tal y como propone la Economia Basa en Recursos. Todos los humanos serian informados en tiempo real sobre la distribucion de la totalidad de los recursos terrestres.
Problemas de desicion ? que tal si lo que se nesecita son cambios, como evitar que los vehiculos y los peatones transiten por las mismas zonas ? una maquina podria tomar los cambios perminentes y minimizar los escenarios de acidentes al minimo posible.
orochi2000
Pues partamos de varias puntos habría que definir primero que es lo que consideramos IA Inteligencia Artificial, hoy en dia se le llama asi a muchos sistemas pero yo diaria que la verdadera IA seria mas bien como la nuestra a la que yo llamaría IA tipo humana, y ahí esta el problema si llegase a existir una inteligencia artificial humana la daríamos aquello que solo nosotros tenemos "el libre Albedrío" y así, solo así seria una verdadera IA pero conllevaria al problema que nos aqueja como humanidad, decidimos si hacemos el bien o pensando en forma egoísta hacemos el mal, nosotros siempre vamos a querer que una maquina este abajo de nosotros y obedezcan nuestras ordenes como es lógico (como la esclavitud que existía antes y siempre el ser humano como es su derecho se revelaba por que quería su libertad), una maquina con libre albedrío llegara un momento en que se cuestione el por que tiene que debe estar por debajo de un ser que es pensante igual que el y pueda llegar a desear como todo ser autónomo a querer ser libre y es allí donde puede suceder lo que siempre se teme en este tipo de tecnología. los optimistas e impulsores de esta tecnología dicen que solo es una paranoia infundada que esas maquinas siempre estarán bajo Supervisión de un humano y que estarán programadas para obedecernos, pues eso es parcialmente cierto depende de lo que queramos crear si es una maquina con cierto grado de automatización o una verdadera IA, por que yo creo ferreamente que si a una maquina autónoma no tiene libre albedrío no es una IA o al menos no es como nosotros, maxime cuando grabamos en ella instrucciones como: "NO LASTIMARAS A UN SER HUMANO", "HARÁS LO QUE UN HUMANO TE DIGA" ETC. por eso insisto depende de lo que queramos crear: maquinas de trabajo con cierta forma de automatización o IA con inteligencia similar a la nuestra he alli mi pregunta...
Usuario desactivado
Es un artículo muy ingenuo... En primer lugar ya hace tiempo que las guerras se producen por intereses económicos (ya sea recursos naturales, o simplemente la venta de las propias armas), no para defender valores morales ni la ciudadanía... Siendo así, tú crees que los países a la cabeza en la carrera armamentística (que son los que más guerras inician) están interesados en aplicar valores morales a sus máquinas asesinas? Les aplicarán sus valores. Además, las bajas colaterales no se evitan dotando de mayor autonomía de decisión a un dron, se evitan dotándolo de armamento mucho más preciso y menos destructivo... Si el dron tiene que eliminar a un terrorista pero sólo lleva misiles, aunque le dé de pleno se va a llevar por delante a 30 o 40 personas más, que no necesariamente han hecho nada (aunque sean simpatizantes)... Eso claro está si no queremos ir a la raíz del problema que es porque esa persona se convirtió en terrorista, quien le proporciona armas y entrenamiento, qué gobierno extranjero (directa o indirectamente) ha dejado su país en la miseria e incultura, cuántos de sus familiares han sido bajas colaterales, etc.
Incluso en una guerra de igual a igual (que ya no se dan), gran parte de los objetivos, no sé si después o antes o a la vez que los militares, son los de infraestructuras : puentes, centrales eléctricas, hospitales, etc. Y eso tiene un impacto brutal en la población civil, aunque ninguno muriera bajo fuego invasor, y por cada baja (más si es civil) tienes a toda una familia deseosa de venganza, y si además está desesperada, pobre y es inculta, es caldo de cultivo para sectas terroristas.
Vamos, que o se dedican esa cantidad de recursos que ahora se dedican a la guerra para mejorar el mundo a nivel global, o con esas máquinas (de guerra o no) no van a solucionar el problema de las guerras
alberto_bengoa
En primer lugar Asimov se equivocó al enunciar las leyes.
No son leyes de la robótica sino de la inteligencia artificial.
Hoy día tenemos millones de robots y ninguno de ellos tiene ni el 0,1% de capacidad necesaria para entender y acatar dichas leyes.
Para continuar, dichas leyes son una propuesta sobre como hacer las cosas, que ya veremos a ver como si se plasma en las máquinas. Es que veo a algunos que se han pensado que es un estándar de la ingeniería que ya se está poniendo en los robots.
arctick
Siempre he pensado que la solución a este tipo de problemas es... no solo cambiar la manera en que auto se conduce, sino tambien por donde se conduce, yo crearia una especia de vía única, como las del metro tren, que este aislada de algún modo y que no pueadan haber peatones, o que tengan alguna especia de "riel magnético", asi como una linea de metal bajo el calzado y que sea, en efecto como una gran línea de tren, pero clado, sin las vías, de esa manera el sistema central podría monitorear la actividad de todos los vehículos y precedecir posibles colisiones.
Claro, es algo bastante caro (y quizas irreal por los mismos costos) pero eso si sería una conducción autonoma eficiente.
En el caso de los peatones, habria puentes sobre las vías para cruzar, que esten aislados de alguna manera, vidrio etc, para que no puedan acceder a las pistas.
Usuario desactivado
Como siempre he pensado: no debe crearse ni imaginarse una maquina capaz de tomar todas las decisiones; porque en ese momento ya no se necesita al ser humano.
Estoy de acuerdo en crear una legislación mundial que prohíba el desarrollo y fabricación de robots militares completamente autónomos. En cuanto a los autos siento que deberían ponerles vibradores o mecanismos para despertar al conductor en caso de un dilema (aunque te tenga que echar agua fría o darte una descarga eléctrica).
Existe una serie llamada "Person of interest" en la que un ingeniero logra crear una inteligencia artificial capaz de detectar crímenes antes de que sucedan, pero la maquina solo reporta, siempre deja el juicio a un humano, si el humano no esta no hace nada. Así es como se debe desarrollar la tecnología
diegomarquezmartinez
Las situaciones son simples, sólo hay que considerar el bien mayor:
¿Salvarías antes a un niño o a un anciano? A un niño, tiene mayor potencial de impacto en la humanidad que el anciano
¿A un hombre o a una mujer? Aleatorio, igualdad de oportunidades
¿Una mujer embarazada cuenta por dos? Es evidente
¿Sería mejor chocarse con un coche viejo que emita mucha contaminación que con un coche eléctrico? La posición económica de alguien no debería determinar su supervivencia, nuevamente aleatorio
¿Mejor estrellarse contra un autobús que viene de la penitenciaría que contra uno escolar? Insulta el dudar en la respuesta, por supuesto que vale más salvar el escolar
¿Contra un ambulancia o contra un coche fúnebre? La ambulancia es un vehículo y lleva personal más útil
¿Qué sería mejor, estrellarse contra un tranvía en el que viajan veinte ancianos, tres de ellos enfermos terminales, o contra un autobús en el que viajen quince jóvenes hinchas de un equipo de fútbol (cuatro de ellos con graves antecedentes penales: violación y agresión, y con altas probabilidades de reincidencia; pero otros dos con un brillante futuro como médicos)? El autobús de los médicos es el que se salva, a los reincidentes los metes a la cárcel. Los terminales no serviría de nada alargarles la vida y los médicos podrían hacer un gran cambio en el mundo.
elcuen
Excelentes reflexiones, magnífico artículo.
miguelabellan nosoye
"decidir si activar el robot de limpieza cuando hay un determinado nivel de polvo"
¿Un robot activando un robot de limpieza? ¿Y por qué no limpia él mismo? Precisamente la idea de tener a un autómata es que pueda hacer de todo.
eduper
Eso de las tres reglas básicas tienen una laguna:
Aún existiendo esa tercera, queda del todo inútil si le digo a un robot "autodestrúyete" sin más, pues no entra en conflicto con la primera norma, y la segunda norma de obedecer al humano tiene prioridad sobre la tercera.
Así cualquiera (humano claro) puede ir por el mundo "matando" robots aunque sólo sea para fastidiar a sus propietarios. Jeje