El Random Darknet Shopper es un bot que, cada semana, visita la deep web y gasta aleatoriamente 100 dólares en algún objeto. Dicha compra es después enviada a los dueños del bot, dos artistas suizos que han creado una exposición con todas las adquisiciones de su software automatizado. Entre las compras están unos vaqueros de imitación, un pasaporte y... una bolsita con pastillas de éxtasis.
Numerosos medios se hicieron eco de esta original iniciativa, y un día después de clausurar su exposición, la policía apareció para confiscar dichas drogas. ¿Pueden ser los responsables del bot acusados por comprar drogas? Yendo todavía más allá, y viendo cómo los coches autónomos están ya a un paso, ¿quién tiene la culpa si uno de estos coches tiene un accidente? ¿Quién puede ser llevado ante un juez?
El "bot" delincuente

Volviendo al primer caso, ¿qué ocurre si alguien programa un bot para hacer realizar acciones aleatorias y resulta que, con una de ellas, termina cometiendo un delito? Hemos hablado con José Leandro Núñez, abogado de Audens especialista en nuevas tecnologías, que nos explica que "que las cosas no tienen capacidad jurídica, y por tanto no pueden ser condenadas en caso de que cometan infracciones o delitos", incluso aunque tengan inteligencia artificial. "El bot no es sino un medio o herramienta para la realización del acto ilegal", nos comenta también Sergio Carrasco, abogado y cofundador de Derecho en Red.
Parece lógico ya que, a fin de cuentas, ¿cómo juzgas o condenas a un bot? ¿Qué se hace entonces? José Leandro nos dice lo siguiente: "el sistema trata de tirar del hilo, de encontrar a la persona causante de ese comportamiento. Una vez encontrada, se trata de determinar hasta qué punto es responsable de lo ocurrido: ¿programó el robot a sabiendas, para hacer cosas ilegales? ¿Lo hizo de forma imprudente, sin prever las posibles consecuencias? ¿Fue un simple hecho fortuito?".
Ambos abogados coinciden en que la clave de cada caso concreto es ver si se ha producido dolo (intención de causar el daño) o neglicencia por parte del programador. En caso de que esto llegue ante el juez, y según nos explica Sergio, "tendrás que demostrar que no ha habido voluntad de que realice dichas actuaciones, y habría que ver circunstancias como qué control se ejercía posteriormente sobre el bot."
"La evolución de la misma herramienta no cambia ni las intenciones que tenía su desarrollador, ni la acción que va a realizarse (que ya se encuentra contemplada en el ordenamiento jurídico). Por lo tanto, no existe un sujeto diferenciado que sea el bot, ni hay laguna alguna al respecto", según Sergio Carrasco.
José Leandro va todavía más allá y nos pone otro ejemplo: la "posición de garante". "Por ejemplo, se le aplica al propietario de un perro que se escapa y muerde a alguien… y creo que también se podría aplicar en este caso". De todas formas, y por lo que nos comentan, dependería de cada caso concreto, de cómo se ha programado el bot y de las explicaciones que se den ante el juez.
Si nos ceñimos al caso del bot que compra cosas, otro apunte importante que nos hace José Leandro:
"Por lo demás, otro tema interesante es la validez de las compras realizadas por estas máquinas: la Ley nos dice que para que una compra (o cualquier otro contrato) sea válido, tiene que haber consentimiento de las dos partes. Ahora bien, si la compra la realiza aleatoriamente una máquina, que carece de capacidad jurídica, ¿existe realmente consentimiento? ¡Todo un dilema! Estoy seguro de que en el futuro nos encontraremos con sentencias de este tipo"
¡Ojo! Hasta ahora estamos hablando de bots programados para hacer tareas "aleatorias". Esto no quiere decir que, si programas un bot para hacer cosas ilegales, te vayas a librar. En este caso, y si se ha programado intencionadamente para tal fin, el creador del software en cuestión sería sin duda alguna responsable de los delitos o daños causados.
El ¿peligro? de la automatización de tareas
Por ir un poco más allá y "rizar algo el rizo", hemos pensado en otra situación casi extrema: ¿qué ocurre si utilizas algún servicio como IFTTT, que te permite automatizar las tareas, para descargar todas las fotos de Instagram que publica una cuenta y, al final, resulta que una de estas imágenes era pornografía infantil? Tú no te la has descargado adrede, pero el programa la ha descargado y está en tu disco duro.
Si en tu disco duro hay algo ilegal que se ha descargado de forma automática y sin tu conocimiento, te tocará demostrarlo
En este caso, la mera tenencia de un archivo de este tipo es un delito (se pena la posesión de pornografía infantil). Si su descarga ha sido efectivamente fortuita, te tocará probar ante el juez que ha sido tal. "Lo mismo sucedía cuando se descargaban películas de pornografía infantil ocultas como grandes éxitos de hollywood por ejemplo", explica Sergio. ¿Cómo lo pruebas? Demostrando que no hay más contenidos de ese tipo en tu ordenador, falta de habitualidad, cómo funciona la herramienta que lo ha hecho, etc.
Lo mismo afirma José Leandro: "Podría tratar de defenderse, basándonos en que no había intencionalidad, pero la persona en cuestión sería imputada con total seguridad". Por mucho que haya sido una descarga automática, eso no cambia que el poseer la imagen no sea un delito. En definitiva: podrías acabar frente a un juez y, a partir de ahí, deberías probar tu inocencia.
¿Y si un coche autónomo tiene un accidente?

Imagen del coche autónomo de Google
Todo el asunto de la conducción autónoma presenta un dilema moral: si un coche va por una carretera y la única forma que tiene de esquivar un accidente es llevarse por delante a un peatón, ¿qué debe hacer el coche? ¿Qué vida vale más? ¿Y si el coche lleva seis ocupantes? Sobre este asunto profundizan en este interesantísimo artículo del New York Times, hablando de lo que se conoce como "matemáticas morales".
Pero ¿quién carga con la culpa si se produce un accidente de estas características por un error del coche autónomo? "Estamos hablando de una herramienta incorporada al vehículo (da igual que sea más o menos avanzada) con lo cual existirá responsabilidad al igual que sucede ahora", explica Sergio, que además nos pone un ejemplo: si un error con el diseño hace que los frenos fallen, el culpable es claro. Con los coches autónomos ocurriría algo similar.
Igual que ahora se culpa a los fabricantes de fallos en el diseño, los fallos en un sistema autónomo de conducción también tienen responsables
José Leandro coincide con esta opinión: "tendríamos que ver quién es el culpable del accidente: el fabricante, por un error de diseño; la empresa, por falta de mantenimiento; el conductor, por toquetear los botones… o todos ellos". Y, además, hace una lectura muy interesante del asunto: "será muy complicado que veamos coches autónomos circulando por las carreteras hasta que se aclare el tema de las responsabilidades en caso de accidente."
En resumen: los bots, los sistemas de inteligencia artificial o los sistemas de conducción autónoma no dejan de ser herramientas que son programadas por alguien para tal fin y de esa forma deben ser consideradas en el caso de que exista algún problema con ellas. Así que, si tenías pensado programar un bot que compre aleatoriamente en la deep web, como hicieron los compañeros suizos, mejor que optes por otro proyecto distinto para evitar posibles problemas.
Imágenes | Martin Terber, Bitnik
Ver 17 comentarios
17 comentarios
Usuario desactivado
Articulo muy interesante, es realmente importante ver como la ley se va adaptando a nuevos escenarios ya sea debido a cambios sociológicos o tecnológicos.
Creo que aun queda mucho para la existencia de IAs a las que se las pueda considerar seres al estilo de los robots de Asimov que puedan ser responsables de sus actos.
lord.firefax
"A decir verdad no sé si Hal es homicida, suicida, neurótica, psicópata, o simplemente está rota."
Abogados Tenerife
Por muy sofisticado que sea, un bot no deja de ser un objeto o elaboración carente de personalidad, y por ende de facultad de delinquir de forma consciente y deliberada. Lo difícil en ocasiones es acreditar la intención de utilizar dicho bot para la comisión por parte de un delito de quien lo crea, modifica o adquiere.
vaxkex
En el caso de los coches autónomos, puesto que la persona ya no tiene ninguna implicación en el manejo de su coche, sería el fabricante el que respondiera de los posibles errores al accidentarse. Por lo tanto, nosotros no tendríamos que contratar y menos pagar un seguro, ya que no somos un factor.
Uno se asegura para cubrir sus posibles despistes o errores al volante, pero si es otro el que conduce (maquina), que lo pague otro (fabricante).
jipyoyano
Si bien es un tema la responsabilidad es un tema considerar, hace ya mucho tiempo que estamos frente a este tipo problemas.
Una refinería tiene una cantidad de controles automáticos, que toman decisiones preestablecidas. Una central nuclear también. El sistema de información para defensa, durante la guerra fría, tenía algunos mecanismos automáticos, que actuaban sin participación humana.
Manejamos temas tan complejos, que es mejor que la decisión la tome la máquina y no el hombre. En cada caso hay responsables.
Por supuesto la responsabilidad es civil, no penal. Salvo que se pudiera probar dolo de parte de quien genera el protocolo que la máquina debe cumplir. Por ejemplo, en Análisis de Riesgo de Procesos, hace mucho tiempo que se han establecido procedimientos para tomar decisiones.
Y no necesariamente son las mejores. Pero sí es lo mejor que se conoce en el momento en que se hace el procedimiento.
jipyoyano
Las responsabilidades en caso de accidente sin duda tienen que ser estudiadas. Pero si este tipo de vehículos disminuye en forma sensible la cantidad de accidentes respecto del manejo manual, sería lo más racional adoptarlos. Salvo que alguien piense que es mejor que mueran muchas más personas, para poder determinar las responsabilidades.
Una central nuclear, una refinería, o cualquier planta química, ha disminuido sensiblemente los riesgos de seguridad, gracias a la existencia de una gran cantidad de lazos automáticos, y menor intervención humana.
Saludos
acerswap
"A drede" no existe. Es "adrede", una sola palabra.
En cuanto a lo de "probar tu inocencia", desde el punto de vista legal se supone que existe la presuncion de inocencia. La diferencia está en el delito que se te impute. Si es "posesión de pornografía infantil" eres culpable en el caso que planteas, pero si es "consumo de pornografia infantil" es algo distinto, ya que ahi tendria que demostrarse que son descargas realizadas con animo de hacer uso de ese contenido.