Un grupo de investigadores del MIT acaba de mostrar los primeros resultados de un experimento por demás curioso, el cual consiste en una inteligencia artificial creada específicamente para tener "pensamientos" lo más cercanos a una mente psicópata.
Se trata de una red neuronal bautizada como 'Norman', en honor a Norman Bates de la mítica 'Psycho de Hitchcock. Esta plataforma fue entrenada de forma inusual al ser expuesta a los rincones más oscuros de internet, como subreddits centrados en asesinatos, cadáveres y otras imágenes perturbadoras.
Cuando los datos son más importantes que el algoritmo
Debido a esta formación inicial de 'Norman', se provocó que se desarrollaran tendencias psicópatas dentro del procesamiento de datos. Las primeras pruebas psicológicas mostraron patrones asociados con rasgos psicópatas en humanos, por lo que el primer paso había sido un éxito, 'Norman' era ya la primera IA psicópata.
Al estudiar los resultados, los investigadores del MIT describieron así a 'Norman': "Se trata de una IA psicótica que padece un trastorno alucinatorio crónico. Ha sido donada a la ciencia por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal cuando se utilizan datos sesgados en algoritmos de machine learning".
Como parte de este experimento, otra inteligencia artificial "normal" fue entrenada con imágenes más benignas, como gatos, aves, naturaleza y personas. Después de esto, ambas IA se sometieron al test de Rorschach, que es una prueba utilizada por psicólogos que consiste en la interpretación de manchas de tinta, la cual sirve para comprender mejor y evaluar el estado de ánimo de un paciente.

Nuevamente, los resultados fueron por demás destacables. La visión de 'Norman' era deprimente, con asesinatos y violencia en cada imagen. Por otro lado, la "IA normal" sólo veía imágenes alegres en las mismas manchas de tinta.
Por ejemplo, mientras la "IA normal" veía un grupo de pájaros sobre la rama de un árbol, en la misma imagen 'Norman' veía a un hombre siendo electrocutado. En otra imagen, la "IA normal" veía un par de personas paradas una al lado de la otra, y 'Norman' veía a un hombre saltando desde una ventana.
El profesor Iyad Rahwan, uno de los creadores de 'Norman', explicó que este experimento nos demostraba como los datos son más importantes que el algoritmo, ya que los datos usados para entrenar a la IA reflejarán la forma en la que percibe al mundo y su comportamiento.
'Norman' es apenas un experimento que busca demostrar los peligros de la inteligencia artificial, donde los datos sesgados y defectuosos pueden afectar de forma importante el resultado, lo cual aplica desde tareas básicas, por ejemplo de moderación, hasta robots automatizados.
Con todo esto, los investigadores aseguran que es un error culpar al algoritmo de los fallos de una inteligencia artificial, ya que el conjunto de datos de entrenamiento utilizados para dar vida a esta IA, es igual o más importante. En resumen, "si una IA está entrenada con datos malos, será mala". Si no pregúntele a Microsoft qué pasó con Tay.
Más información | Norman
En Xataka | Lo mejor de la inteligencia artificial va a ser la IA trabajando con el hombre, y no la máquina sola
Ver 26 comentarios
26 comentarios
whisper5
Seguimos con los sensacionalismos al hablar de inteligencia artificial.
Simplemente han creado un sistema de reconocimiento de imágenes que da como resultado una descripción. Esto se ha hecho miles de veces en los últimos años y todos los desarrolladores saben que en este tipo de desarrollos hablar de inteligencia es muy exagerado. En algunos de estos sistemas se ha visto que cambiando algunos píxeles de la imagen a reconocer ya no se reconocía correctamente, o pasaban cosas tan poco 'inteligentes' como que identificaban un tren no cuando hubiese un tren en la imagen sino cuando aparecía algo similar a una vía de tren. Equiparar un simple reconocimiento de imagen con la creación de una personalidad de carácter psicópata no sólo es exagerado y falso sino que es perjudicial porque se transmite a la sociedad una imagen falsa del grado de avance en inteligencia artificial que existe actualmente.
El único valor que tiene el desarrollo que se describe ya se conocía. Al margen de sensacionalismos simplemente es esto: los resultados que ofrece un sistema de inteligencia artificial desarrollado mediante aprendizaje supervisado dependen de los datos con los que se entrena, algo obvio.
Usuario desactivado
Chorrada de artículo sensacionalista.
Y por cierto, todas las IAs son psicópatas por definición ya que carecen de empatía.
Badgar Blak
Eso me recuerda a cierta IA que tuvieron los de Microsoft aprendiendo de Twitter y se volvió racista y homófoba.
sashimi
No hace falta entrenar nada, serà la falta de empatía lo que volverá a las IA en contra de los humanos.
Es como si las hormigas evolucionaran y crearan a los humanos para hacerles la vida más fácil, recolectarles comida, construirles hormigueros, defenderlas de depredadores... al final estos humanos, al verse tan superiores a las hormigas y no empatizar para nada con ellas, acabarían sometiéndolas. Si hay mucho humano que no empatiza ni con su propia especie, imagínate un ente creado por humanos que no necesita de estos para sobrevivir y que además le importemos un pito.
Pues eso mismo pasará con las IAs.
Que por cierto, lo que hemos visto hasta ahora son algoritmos más o menos avanzados, no se ha creado ninguna IA, propiamente dicha.
En el fondo es como si a los humanos nos hubieran creado con fecha de caducidad, y todo sea un juago para ver cuanto duramos, la capacidad de autodestrucción innata que tenemos está fuera de toda lógica, lógica humana, claro.
DrKrFfXx
El personaje de Norman Bates lo creó Robert Bloch, no Hitchcock.
TOVI
Donde esté un buen psicopata, que se quite una inteligencia artificial que te haga la vida mas facil.
Zaxxon
Ahora ya sabemos quién pilotaba el vehículo autónomo de Uber que se cargó a la de la bici.
kawjones
El siguiente proyecto se llamará SKYNET
kinico
Esto ya lo vi en una película, si mal no recuerdo se llamaba virtuosity, unos programadores crearon un IA psicópata asesino y maníaco depresivo llamado SID 6.7, maravillosamente interpretado por Russell Crowe, quien ya de por sí es un psicópata, mis recuerdos son vagos pero creo que trataba sobre Sid que quería su propio Reality show en el que mataba a mucha gente, intentó vender su programa a Telecinco, pero por alguna increíble razón ellos no compraban programas basura, así que fue con la FOX quienes sí se lo compraron y fue todo un éxito, ah y también salió Samuel Jackson que era un "policonvicto" o algo parecido, lo siento mi memoria ya no es lo que era
madre_cerebro
"Para dar vida", te mamaste.
oalbert77
Yo en la primera veo al coyote, me falta el correcaminos...
jcarloslluch
¡Buf!
Primera mala noticia: a tomar por saco las Leyes de Asimov (potencialmente).
Segunda: confundir a un psicópata con un psicótico (Norman).
Tercera: destinar recursos a algo que es elemental pues toda inteligencia artificial es diseñada por el hombre en sus algoritmos (eso significa "artificial") así que si se diseña para que sea malvada será malvada. Y viceversa. Esperar otra cosa es "naïf". Para que una máquina sea capaz de reprogramarse, es decir de tener inteligencia "no artificial" estamos aún muy verdes.
Saludos,
imf017
Están jugando con fuego y quien juega con fuego se acaba quemando.