En mi edición de Yo Robot (1950) de Isaac Asimov, aparece en la página inmediatamente anterior a la introducción, la enunciación de las tres famosas leyes de la robótica:
- Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
- Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera Ley.
- Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda Leyes.
Manual de robótica, 56.ª edición, año 2058.
Es curioso como algo aparecido en novelas de ciencia-ficción se cite constantemente como el punto de partida de un código ético para la inminente llegada de máquinas que van a tener que tomar decisiones propiamente morales.
Pero, ¿es posible que una máquina pueda tomar una decisión moral? ¿No era la moral una cualidad exclusivamente humana, algo que nos hacía únicos en el universo? No hay que ponerse tan solemnes. Sencillamente, debido al desarrollo de la robótica y de la Inteligencia Artificial en los últimos años, pronto iremos automatizando más y más facetas de nuestra vida cotidiana.
Automatizar viene a significar que una máquina haga cosas que anteriormente solo podíamos hacer nosotros, y la automatización pronto va a incluir la toma de decisiones y, dentro de la toma de decisiones, pronto tendrán que tomar decisiones que cualquiera de nosotros consideraríamos morales.
De primeras, solo serán cosas como cerrar las persianas cuando la temperatura suba a unos determinados grados, activar la alarma cuando no hay nadie en casa, elegir qué lavado será el óptimo para determinado volumen y tipo de ropa o de vajilla, pedir lo que falta en el frigorífico por Internet, decidir si activar el robot de limpieza cuando hay un determinado nivel de polvo…
Después, conforme las máquinas se hagan más y más sofisticadas, irán adquiriendo mayores responsabilidades en la toma de decisiones. Imaginemos cuando el cielo se llene de drones que transporten paquetes a todos lados; coches, aviones o trenes se conduzcan solos, o, y aquí llega lo más complicado… cuando tengamos robots policía a lo Robocop o… robots de combate, ¿cómo deberían comportarse?
Inteligencias de combate
Parece inevitable que la IA termine por tener usos militares por la sencilla razón de que cualquier ejército del mundo prefiere tener bajas robóticas que humanas. Así, es muy probable una carrera armamentística para diseñar inteligencias más eficaces en el antiguo arte de exterminar a tu enemigo.
La buena noticia está en que si los dos bandos en contienda utilizan robots, las bajas humanas se reducirán. Sería maravilloso un mundo en el que los conflictos bélicos se resolvieran con una guerra exclusivamente de robots, en el que nadie sufriera daño alguno. O, en el peor de los casos, que al menos se reduzcan las bajas en el bando de los buenos. A mí me encantaría que en un ataque del ejército norteamericano, en el que los principales líderes de ISIS han sido eliminados, las únicas bajas del bando occidental han sido unos cuantos robots.
Pero la mala es que ya hemos abierto la veda al hacer explícitamente lo opuesto a lo que Asimov legisla: estamos diseñando inteligencias artificiales específicamente para matar o para causar el mayor daño o destrucción posible. Por un lado, no estamos haciendo nada nuevo: las máquinas llevan matando humanos desde el comienzo de los tiempos (en el fondo, una lanza no es, esencialmente, nada diferente a un dron de combate), pero por otro el miedo está en perder el control, en que la máquina se vuelva contra su creador. Lo que siempre ha temido el amo es que sus esclavos ser rebelen contra él para terminar, él mismo, siendo el esclavo.
Si las máquinas ya nos superan en muchas tareas que antes parecían territorio exclusivo de la supuestamente todopoderosa mente humana (cálculo matemático, razonamiento, memoria…), nos vamos poniendo poco a poco más nerviosos cuando, además de contemplar su continuo avance, estamos armando a estos potenciales enemigos.
Pero, ¿por qué una IA es mejor combatiente que un humano? Pues por las mismas razones que el sector industrial se está mecanizando, prescindiendo poco a poco de obreros de carne y hueso: las máquinas no se cansan, no necesitan vacaciones, no se quejan ni protestan, no ponen en duda las órdenes de sus superiores, y lo más importante a nivel bélico: son totalmente despiadadas al no tener empatía con la víctima. Una máquina jamás tendrá problemas psicológicos por verse expuesta al estrés de la batalla ni por la culpabilidad de haber cometido una matanza. Es más, una máquina jamás se rendirá ni huirá ante una eminente derrota. Las máquinas se postulan como perfectos soldados.
El problema, claro está, es, o más bien era, que la IA todavía no estaba suficientemente avanzada para poder sustituir la eficacia de un ser humano en combate. Hasta hace muy poco los robots se movían muy torpemente en entornos poco formalizados, solo operaban bien en micromundos regidos por reglas simples y muy precisas (por ejemplo, un tablero de ajedrez).
Pero, cuando uno ve el famoso vídeo de los cuadrúpedos diseñados por Boston Dynamics y, más recientemente, el de su humanoide Atlas, y ve lo magníficamente bien que se mueven en entornos naturales… se da cuenta de que esta tecnología está ya muy avanzada.
En donde primero se ha puesto el ojo en términos militares es en la aviación. Los pilotos humanos tienen muchas limitaciones en este aspecto, por ejemplo en el tiempo de reacción (que en un combate aéreo es cuestión de fracciones de segundo) o en los problemas físicos ocasionados por realizar maniobras con una aceleración varias veces superior a la gravedad terrestre. Un software piloto no tendría ninguno de esos problemas.
Además, el entorno de vuelo muy sencillo (el cielo está, habitualmente, bastante despejado de objetos), lo que da muchas facilidades a los programadores. Es por ello que las grandes potencias militares ya llevan tiempo desarrollando sus vuelos no tripulados. Recientemente la industria armamentística soviética ha anunciado que su cazabombardero estrella, el Sukhoi T-50, tendrá una versión pilotada por una IA.
Así, un grupo de intelectuales y expertos en IA, entre los que destacan los ilustres Stephen Hawking, Noam Chomsky o Elon Musk entre muchos otros, firmaron un manifiesto alertando sobre los peligros de desarrollar robots asesinos. El objetivo es promover una prohibición a nivel mundial por parte de la ONU.
El pasado 14 de abril se reunieron en Ginebra expertos en sistemas de armas letales autónomas para debatir acerca de una legislación internacional que regule su uso, y organizaciones como Human Rights Watch han puesto en marcha una campaña contra su fabricación: Stop Killer Robots. El profesor de IA de la Universidad de Sheffield Noel Sharkey y la activista y Premio Nobel de la Paz, Jody Williams, han sido los más representativos críticos en esta línea.
En general, lo que se pide es que las máquinas no tengan autonomía plena sino que haya un “control humano significativo” que pueda evitar que se cometan errores propios de máquinas sin ningún sentimiento moral.
Y lo que suena aún más peligroso (y lo que asusta, seguramente, más a Hawking o a Williams) es el desarrollo de programas para la toma de decisiones estratégicas, es decir, programas que sustituyan resoluciones propias del alto mando militar. En Estados Unidos, DARPA está desarrollando el programa CoABS, un sistema de gestión y coordinación de tropas diseñado para reducir el tiempo en la toma de decisiones. Las máquinas nos ganan a la hora de controlar a muchísimos agentes actuando a la vez (como pasa en una batalla real).
Además, el sistema trabaja en red de modo que la caída de una de sus partes pueda ser sustituida instantáneamente por otra. Si la toma de decisiones no está centralizada en un punto, sino distribuida a lo largo y ancho de toda una red, seguirá funcionando aunque algunas de sus partes fueran destruidas (esa fue la idea que dio origen a Internet). Esto permite solucionar la gran vulnerabilidad de los ejércitos actuales, demasiado dependientes de sus líderes, de modo que suelen caer derrotados cuando éstos son eliminados. Por supuesto, los rusos ya tienen su homólogo.
Parece como si estuviéramos viviendo los primeros capítulos del guion de Terminator (James Cameron, 1984). En la película, Skynet será la inteligencia artificial que se rebele contra sus amos, llevando a cabo un ataque nuclear masivo. Resulta inquietante que Skynet comience siendo, precisamente, algo muy parecido a CoABS.
No obstante, en mi siempre modesta opinión, creo que no hay demasiadas razones para preocuparse más de las armas autónomas que del desarrollo tecnológico de cualquier otra arma (y creo que hay más para preocuparse, por ejemplo, de las armas biológicas). Veo lejísimos la posibilidad de ejércitos con cerebros positrónicos exterminando a la raza humana y, sin embargo, veo muy cerca la posibilidad de evitar los clásicos daños colaterales debido a errores humanos en los conflictos bélicos.
Una IA programada éticamente, actuará evitando causar bajas civiles con más eficacia (al ser mejor combatiente que el humano) que nuestros actuales soldados. Además no cometerá los, desgraciadamente habituales, abusos y violaciones de los derechos humanos que ocurren en toda guerra. Un robot de combate no violará ni torturará prisioneros si no lo hemos programado para ello.
Si nuestras máquinas combatieran con un bushido diseñado para cumplir las Convenciones de Ginebra, nos ahorraríamos muchísimas muertes innecesarias. Habrá errores. Por supuesto, las máquinas siguen, y seguirán sin ser perfectas, pero serán menos que los que ya cometemos nosotros.
Paradójicamente, los robots pueden ser mucho más humanos que nosotros. Recuerdo el lema de la Tyrell Corporation, la empresa que fabricaba replicantes en Blade Runner (Ridley Scott, 1982): “More human than human”. El celebérrimo discurso de Roy Batty (Rutger Hauer) al final de la película es un canto a la humanidad pronunciado, paradójicamente, por un organismo artificial.
El replicante ama tanto su vida justo antes de morir que salva a quien pretende asesinarle, el miserable Rick Deckard (Harrison Ford), el humano. Quién sabe, las frías entrañas de metal de los robots podrían ser, finalmente, más bondadosas que el cálido corazón humano.
Prescindiendo de los humanos
Siempre he pensado que si una raza de extraterrestres observara la historia de la humanidad, el juicio hacia nuestra especie sería pésimo. Básicamente, no hemos hecho otra cosa que matarnos los unos a los otros de formas cada vez más sofisticadas, por lo que no me extrañaría mucho que los alienígenas decidieran exterminarnos por el bien, primero de nuestro propio planeta, y luego del universo en su conjunto, tal y como muestra la clásica Ultimatum a la Tierra (Robert Wiste, 1951. Existe el remake, malísimo por cierto, de Scott Derrickson en 2008).
El caso es que si los humanos son peligrosos, parecería sensato dejar los mandos del planeta a una entidad no humana, supuestamente una IA, que, en todo momento, velara por nuestra seguridad, por evitar que nos matemos unos a otros. Seguramente salvaríamos vidas pero, al menos a mí, me parece que renunciar a la soberanía humana es convertirse en esclavo y reconocer el fracaso de nuestra especie para poder construir un mundo mejor. Ambas ideas no me gustan nada.
Pero quizá la IA, intuyendo la resistencia del hombre ante la idea de perder el poder, planifique y lleve a cabo una rebelión, un golpe de estado para usurpar el trono a pesar de nosotros. La IA sería un déspota benevolente que nos privaría de nuestra libertad a cambio de nuestra seguridad. Es el argumento de la película Yo robot (Alex Proyas, 2004), basada en el clásico ya mencionado de Asimov.
Otra visión, más amable pero igualmente triste para nuestra especie, nos la da Spike Jonze en su magnífica Her (2013). En ella, las máquinas conviven felizmente con los humanos (incluso enamorándose y practicando sexo con ellos) pero, al final, su avance exponencial hace que terminen con abandonarlos (llega la singularidad predicha por Ray Kurzweil y puesta en duda por Paul Allen y P.Z. Myers).
En la película no se profundiza mucho en la futura relación entre esas superinteligencias digitales y los hombres, pero parece que cada uno sigue su camino sin más. Las máquinas terminarían viéndonos como nosotros contemplamos al resto de los animales: como especies estúpidas y primitivas que, a lo sumo, pueden inspirar curiosidad y ternura. Esperemos que, al menos, no decidieran encerrarnos en zoos o usarnos como mascotas.
Empero, aparte de estas más o menos lejanas utopías, el tema de dejar el control de ciertas decisiones importantes a seres digitales está ya aquí. El caso paradigmático es el de los automóviles que se conducen solos que están desarrollando marcas como Tesla o Google. Si hemos calculado que cada año muere más de un millón de personas en accidentes de tráfico, y en más del 90% de los casos, las causas son errores humanos, dejar el control de la conducción a coches inteligentes parece una buena opción.
Las máquinas no se emborrachan ni se duermen al volante y, según publicaba The Atlantic, podrían salvar unas 30.000 vidas al año solo en Estados Unidos ¡Hay que construirlas lo antes posible! No obstante, pronto surgen los problemas. Vamos a ello.
Pilotando éticamente los coches de Google
Philipa Foot fue una filósofa británica famosa por proponer el dilema ético del tranvía. Vamos a contarlo, actualizándolo a nuestro coche Google. Supongamos que nuestro coche circula felizmente por una autovía cuando, de repente, hay cinco personas tumbadas en medio de la calzada. No hay tiempo para frenar y lo único que puede hacerse para evitar atropellarlas es pegar un brusco giro a la derecha (ya que a la izquierda hay un profundo desfiladero) pero, en esos milisegundos, uno de los sensores detecta que hay otra persona caminando tranquilamente por el arcén.
El software de nuestro coche solo tiene entonces dos trágicas opciones: o no hace nada y sigue hacia adelante matando a cinco personas, o gira y mata a una ¿Qué debería hacer?
Evidentemente, las reglas de Asimov no valen aquí para nada. Siguiendo la primera ley, la máquina entraría en un bucle irresoluble al tener que elegir entre matar directamente a un humano al girar o en dejar que mueran otros por inacción, cuando está programado para no poder hacer ninguna de las dos acciones.
Los programadores de Google deberían introducir algún criterio más para que la computadora tomara la mejor decisión posible pero, ¿cuál? Desde una perspectiva utilitarista, defendida, en general, por la tradición filosófica anglosajona bien representada por John Stuart Mill o Jeremy Bentham, el principio ético que tiene que guiarnos es conseguir la mayor felicidad para el mayor número de personas posibles. Entonces estaría claro: habría que girar y matar a uno en vez de a cinco seres humanos.
De primeras parece razonable (yo elegiría esta opción si fuese el conductor) pero, si aceptamos el utilitarismo como criterio moral, nos encontramos con casos en los que esta opción no parece la mejor. Imaginemos que en un hospital tenemos a cinco enfermos graves. Uno necesita urgentemente un trasplante de corazón, otro de páncreas, otro de hígado, otro de pulmón y un último de cerebro (es que es un homeópata antivacunas).
Los cinco pacientes morirán en las próximas horas a no ser que encontremos donantes pero, desafortunadamente, no hay ningún órgano disponible. Totalmente desesperados, miramos por la ventana y vemos que paseando por la calle adyacente al hospital camina un individuo con todos sus órganos sanos. Si aplicamos la doctrina utilitarista lo tendríamos claro: la felicidad de cinco vale más que la de uno, por lo que lo correcto sería secuestrar a ese tipo y sacarle los órganos para salvar a nuestros enfermos.
Creo que los automóviles inteligentes no se verían nunca en situaciones semejantes a ésta (o yo no soy capaz de imaginar alguna similar) pero si pensamos que damos responsabilidades éticas a máquinas en otros ámbitos, no es descabellado pensar que podrían darse. No quiero imaginarme la terrible distopía que constituiría un futuro gobernado por una superinteligencia artificial que, velando por la mayor felicidad para el mayor número de personas posibles, mandara a sus sicarios robóticos a desmembrar a individuos para salvar la vida a otros.
Sin embargo, desde la perspectiva deontologista, rival histórica del utilitarismo y representado, en su versión más extrema, por Immanuel Kant, se sostendría que hay normas o principios morales que hay que cumplir incondicionalmente, con independencia de las consecuencias. En nuestro caso, el software deontologista podría partir del principio de que “Matar es siempre malo”. Si entendiera que girar a la derecha sería una forma activa de asesinar a una persona, elegiría no hacer nada y atropellar a las cinco.
Pero tampoco nos vale. Supongamos que tenemos una máquina del tiempo y podemos viajar a la Alemania de 1933 y encontrarnos con Hitler antes de que accediera al poder ¿No nos parecería casi nuestro deber matarle antes de que exterminara a seis millones de personas en la cámara de gas? ¿No nos parecería que en este caso lo correcto es hacer una excepción al “no matarás”?
Cambiando levemente el dilema (aunque haciéndolo más realista) podríamos poner al auto en la tesitura de tener que elegir entre atropellar a cinco personas o estrellarse desfiladero abajo. Suponiendo que en el coche solo viajamos nosotros, desde el utilitarismo sería lo correcto pero, ¿no nos gustaría que nuestro coche velara por nuestra seguridad antes que por la de extraños?
Yo me sentiría intranquilo sentado en un coche al que, en pro del bien de la humanidad, no le temblara su pulso electrónico al matarme. Es más, en términos puramente comerciales, ¿comprarías un coche programado para acabar contigo en caso de dilema? Y si la mayoría de los coches automáticos se programaran de esa manera, es posible que los consumidores no los compraran y siguieran conduciendo sus coches manuales lo cual supondría, a la postre, más muertes debido a errores humanos… ¡Paradoja sin solución!
Además, a esto se le añade el problema añadido de resolver quién es el encargado de elegir el criterio ético, es decir, de elegir lo que el coche va a elegir. En un principio, hemos pensado en los mismos programadores pero también podríamos dejar la decisión en manos del usuario o del mismo Estado. En mi opinión debería ser el Estado quien decidiera en función de las urnas.
Si simpatizamos por la derecha y su defensa de las libertades individuales, un gobierno así legislaría a favor de que el propio usuario eligiera el software ético de su coche. Si, por el contrario, simpatizamos más por la izquierda y su defensa de la igualdad y del bien común, sería el propio Estado el que legislaría sobre qué software es el adecuado.
Pero, ¿y si lo complicamos más? ¿Salvarías antes a un niño o a un anciano? ¿A un hombre o a una mujer? ¿Una mujer embarazada cuenta por dos? ¿Sería mejor chocarse con un coche viejo que emita mucha contaminación que con un coche eléctrico? ¿Mejor estrellarse contra un autobús que viene de la penitenciaría que contra uno escolar? ¿Contra un ambulancia o contra un coche fúnebre? ¿Mezclamos? ¿Qué sería mejor, estrellarse contra un tranvía en el que viajan veinte ancianos, tres de ellos enfermos terminales, o contra un autobús en el que viajen quince jóvenes hinchas de un equipo de fútbol (cuatro de ellos con graves antecedentes penales: violación y agresión, y con altas probabilidades de reincidencia; pero otros dos con un brillante futuro como médicos)?
La enorme dificultad de decidir en estos casos nos recuerda la objeción del asno de Buridán (atribuida tradicionalmente al filósofo francés Juan de Buridán, si bien no aparece en ninguna de sus obras). Dice así: nos encontramos con un asno inteligente, plenamente racional, que se encuentra delante de dos alpacas de heno exactamente iguales. Tiene que elegir por cuál de las dos empezará a comer.
Sin embargo, no hay ninguna razón para preferir alguna de las dos ya que son idénticas. Al final, sumido en una paradoja irresoluble, el asno muere de hambre. Parece una estupidez pero en recientes experimentos nos hemos encontrado robots que fallan tomando decisiones éticas debido a que tardan demasiado tiempo en decidir.
Una interpretación posible de la paradoja vendría a decir que, para tomar ciertas decisiones, debemos introducir algún elemento arbitrario, irracional (o, como mínimo, arracional) que nos empuje para decidir. Es el caso de diversos planteamientos que fundamentan la ética en algo diferente a una elección racional. Veamos alguno.
La falacia naturalista y el intuicionismo de Moore
El filósofo británico George Edward Moore, partirá de una de las críticas más radicales a la ética que se han hecho: la falacia naturalista de David Hume. La idea es, aparentemente, muy sencilla: de lo que es no puede pasarse legítimamente a lo que debe ser. De observar la realidad y ver cómo funciona no podemos deducir lógicamente cómo debería ser.
Por ejemplo, podemos observar en el mundo natural cómo los depredadores cazan y devoran a sus presas. De este hecho podríamos argumentar que como es natural que los fuertes se coman a los débiles, es correcto no financiar cualquier subvención o ayuda a los más necesitados para que éstos (los débiles) terminen por desaparecer y, así, que solo sobrevivan los más fuertes, mejorando paulatinamente la especie humana. Es lo que se conoce por darwinismo social, perspectiva que llevó a justificar el holocausto judío o la esterilización de discapacitados mentales en Norteamérica. Con matizaciones, esta sería la postura del filósofo británico Herbert Spencer.
Pero también podríamos argumentar lo contrario: lo que ocurre en el mundo natural es totalmente injusto por lo que, precisamente, lo que hay que hacer es comportarnos contranatura, es decir, evitar que los fuertes abusen de los débiles. Nuestro pretendidamente igualitario sistema legal reflejaría nítidamente esta idea: la ley es igual para todos. Y en vez de eliminar a los débiles, lo que hay que hacer es ayudarlos, siendo precisamente este comportamiento, el más elevado a nivel moral. Postura ésta del máximo defensor del darwinismo (científico no ético) en la Inglaterra del XIX, Thomas Henry Huxley.
¿Cuál de los dos enfoques es el correcto? Según la falacia naturalista ninguno, pues ambos deducen ilegítimamente de un hecho (de lo que es), cómo debemos comportarnos (lo que debe ser) ¿Cómo se pasa de que en la naturaleza se luche brutalmente por la supervivencia a la afirmación “es bueno que se luche brutalmente por la supervivencia” o su contrario?
La salida de Moore es que no podemos observar el bien o el mal del mundo natural, pero el bien o el mal es algo que podemos intuir. Tenemos una facultad mental diferente a nuestros sentidos clásicos (vista, oído, tacto…) y a nuestra razón, que nos permite intuir qué es lo correcto y qué no lo es.
Problema para nuestro software de conducción: Si lo que determina si una acción es buena o mala no es de índole racional ni es algo que podamos inferir desde la observación de la realidad, sino algo que intuimos… ¿cómo diablos implementamos la intuición? ¿Hay algún informático en la sala que sepa cómo programar conducta moralmente intuitiva? Si Moore tuviera razón sería imposible fabricar alguna máquina capaz de decidir moralmente… al menos con la tecnología de la que disponemos en la actualidad.
Decisiones aleatorias, velo de la ignorancia y “no del todo autónomos”
Hay tres posibles soluciones para salir de estos complicados embrollos. La primera es dejar en modo aleatorio ciertas decisiones. El asno de Buridán no se moriría de hambre si echara a cara o cruz que montón de heno comer primero. Así, ante la dificultad de una decisión racional o, al menos, justa, lo echamos a suertes. No hay nada más proporcional y equitativo como el resultado de una tirada de dados.
La segunda, es, sencillamente, no hacer que los sensores del auto sean tan sofisticados, es decir, que no distingan tantos detalles: que no sepan cuántas personas viajan en los otros autos, que no distingan entre hombre o mujer, joven o viejo, etc. Así, si nuestro coche decide estrellarse contra un colegio en vez de contra un edificio vacío, podemos eludir la responsabilidad sosteniendo que él no sabe nada de tipos de edificios. El desconocimiento exculpa, al menos hasta cierto punto.
Y la tercera es que los autos dispongan de volante y pedales clásicos que pudiésemos activar en cualquier momento para tomar el control. Así, en determinadas situaciones, la decisión estaría de la mano del conductor. El problema sería que, precisamente, si queremos un coche autónomo es para no estar atentos a la conducción, para poder dormir, leer o ver una película mientras nuestro coche nos lleva. Cuanto menos autónomo fuera nuestro coche, menos atractiva nos parecerá esta nueva tecnología.
En el fondo, lo que estaríamos diciendo es que no hay que fabricar coches autónomos. Además, el cofundador de Google, Sergei Brin, nos alertaba que en experimentos realizados en los que se incluía la opción de pasar en cualquier momento a conducción manual, el riesgo de accidente se incrementaba, ya que el conductor puede estar distraído e ignorar el contexto de la circulación antes de tomar el control. Justamente, queremos fabricar coches autónomos para evitar los accidentes causados por errores humanos.
Otra versión de lo anterior es que el coche elija dejarte el mando (o se niegue a conducir) en contextos problemáticos. Por ejemplo, en situaciones de lluvia o nieve, o en tramos de conducción señalizados por tráfico como especialmente peligrosos. De hecho, esta opción ha sido ya implementada por Google.
Ninguna de estas tres soluciones satisfará del todo a nadie pero, a nivel ético y legal, parecen las mejores (o las menos malas). Resulta, al menos, sorprendente, como al final, tenemos que empeorar una tecnología para hacerla aceptable. Tenemos que volver nuestro software autónomo más cegato, más estúpido, más humano, para hacerlo éticamente asumible.
Foto | Smoothgroover22
Ver 21 comentarios