Imaginemos que los sensores de olor de una casa inteligente detectasen la presencia de humo de cannabis en la habitación de un menor.
¿Qué debería hacer la IA que gestiona la domótica de la casa? ¿Quizá avisar a sus padres? ¿O -allí donde vulnere la ley- incluso a la policía?
La capacidad de los dispositivos inteligentes para 'sentir' o 'identificar' actos ilegales obliga, en opinión de algunos expertos, a plantear el debate sobre la 'responsabilidad' que dichas máquinas tendrían a la hora de denunciar dichos hechos.
O, mejor dicho, la responsabilidad que tendrían sus fabricantes de programarlas con ese fin en mente.
"Alexa, no me denuncies"
Y ese debate se acelerará al mismo ritmo en que se acelere la constante penetración de los asistentes digitales (como Amazon Echo o Google Home) en los hogares de los países avanzados.
Por eso, hay quien ya pone encima de la mesa la posibilidad de equipar a esta clase de dispositivos con una 'inteligencia moral' que les ayude a determinar si sus propietarios están incumpliendo la ley, y qué decisión tomar al respecto.
Por supuesto, este debate desemboca necesariamente en otro: ¿Qué consecuencias tendría poner a millones de personas, de facto, bajo vigilancia constante?
El Daily Mirror se ha hecho eco recientemente de la conferencia impartida por investigadores de la Universidad de Bergen (Noruega), Zhejiang (China) y Luxemburgo, durante la conferencia ACM sobre Inteligencia Artificial, Ética y Sociedad realizada hace un mes en Hawai.
Marija Slavkovik, profesora asociada del departamento de ciencias de la información y directora de la investigación, afirmó que los asistentes digitales deberían tener una 'conciencia' que tenga en cuenta los intereses tanto del propietario (o de sus padres, en caso de ser menor) como de las autoridades.
La investigación conjunta de Slavkovik, Beishui y Van Der Torre se denomina "La arquitectura Pinocchio para la interacción humano-IA" y, según ellos mismos explican,
"Aborda el desafío de cómo los valores y puntos de vista morales de todas las partes interesadas pueden integrarse y reflejarse en el comportamiento moral del sistema autónomo".
Proponemos una arquitectura de agente moral artificial que utiliza técnicas de sistemas normativos y argumentación formal para alcanzar acuerdos morales entre las partes interesadas".
Mostramos cómo nuestra arquitectura puede ser utilizada no solo para el razonamiento ético práctico y la toma de decisiones colaborativa, sino también para la explicación de dicho comportamiento moral".
En resumen, los dispositivos deberían someter a su IA a una 'discusión' interna sobre el comportamiento sospechoso, poniendo la ley en un lado de la balanza y las libertades personales en la otra.
Dicha discusión (no tan diferente del proceso seguido por las GAN para generar deepfakes) les ayudaría a determinar el 'mejor' curso de acción.
Ver 4 comentarios