Imaginemos que los sensores de olor de una casa inteligente detectasen la presencia de humo de cannabis en la habitación de un menor.
¿Qué debería hacer la IA que gestiona la domótica de la casa? ¿Quizá avisar a sus padres? ¿O -allí donde vulnere la ley- incluso a la policía?
La capacidad de los dispositivos inteligentes para 'sentir' o 'identificar' actos ilegales obliga, en opinión de algunos expertos, a plantear el debate sobre la 'responsabilidad' que dichas máquinas tendrían a la hora de denunciar dichos hechos.
O, mejor dicho, la responsabilidad que tendrían sus fabricantes de programarlas con ese fin en mente.
"Alexa, no me denuncies"
Y ese debate se acelerará al mismo ritmo en que se acelere la constante penetración de los asistentes digitales (como Amazon Echo o Google Home) en los hogares de los países avanzados.
Por eso, hay quien ya pone encima de la mesa la posibilidad de equipar a esta clase de dispositivos con una 'inteligencia moral' que les ayude a determinar si sus propietarios están incumpliendo la ley, y qué decisión tomar al respecto.
Por supuesto, este debate desemboca necesariamente en otro: ¿Qué consecuencias tendría poner a millones de personas, de facto, bajo vigilancia constante?
El Daily Mirror se ha hecho eco recientemente de la conferencia impartida por investigadores de la Universidad de Bergen (Noruega), Zhejiang (China) y Luxemburgo, durante la conferencia ACM sobre Inteligencia Artificial, Ética y Sociedad realizada hace un mes en Hawai.
Marija Slavkovik, profesora asociada del departamento de ciencias de la información y directora de la investigación, afirmó que los asistentes digitales deberían tener una 'conciencia' que tenga en cuenta los intereses tanto del propietario (o de sus padres, en caso de ser menor) como de las autoridades.
La investigación conjunta de Slavkovik, Beishui y Van Der Torre se denomina "La arquitectura Pinocchio para la interacción humano-IA" y, según ellos mismos explican,
"Aborda el desafío de cómo los valores y puntos de vista morales de todas las partes interesadas pueden integrarse y reflejarse en el comportamiento moral del sistema autónomo".
Proponemos una arquitectura de agente moral artificial que utiliza técnicas de sistemas normativos y argumentación formal para alcanzar acuerdos morales entre las partes interesadas".
Mostramos cómo nuestra arquitectura puede ser utilizada no solo para el razonamiento ético práctico y la toma de decisiones colaborativa, sino también para la explicación de dicho comportamiento moral".
En resumen, los dispositivos deberían someter a su IA a una 'discusión' interna sobre el comportamiento sospechoso, poniendo la ley en un lado de la balanza y las libertades personales en la otra.
Dicha discusión (no tan diferente del proceso seguido por las GAN para generar deepfakes) les ayudaría a determinar el 'mejor' curso de acción.
Ver 4 comentarios
4 comentarios
centrifugadoh
Si antes no queria ninguno, porque ya tengo un espía en el bolsillo y con ese me vale, viendo el camino que va tomando, seguiré con altavoces "tontos".
imf017
No en mi casa ni en mi vida. No es que tenga nada que ocultar, pero habrá situaciones en las que una IA pueda interpretar como ilegítimo o ilegal algo que es totalmente legal y meterte en un lío.
Pongamos un ejemplo absurdo: supongamos que tenemos una cámara de vigilancia IP en casa e hijos menores. El hijo o la hija se ducha y sale en pelotas del baño para ir a su habitación, que está justo enfrente. La cámara lo capta y lo interpreta como pornografía infantil: ya tenemos lío. O sin ser tan absurdo: vivimos en una casa con piscina (aunque sea de ésas desmontables) y tenemos niños. Estamos en verano: los niños entran y salen del jardín en bañador. La cámara lo capta, lo interpreta como pornografía infantil y ...
Para complicar más las cosas, cada país tiene sus propias leyes y lo que es legal en algunos países, puede no serlo en otros, y no creo que los aparatitos inteligentes sean capaz de distinguirlo: probablemente estén programados de acuerdo con las leyes yankis.
botulitis
Pues si eso va a ser asi, no pienso meter un chivato en mi casa!
Estan deseando de meter esos cacharros en nuestras vidas, pero si va a ser asi, lo tienen claro.
Es tirar piedras contra su tejado. O de verdad creen que voy a tener eso en casa si me juzga y denuncia cada vez que hago o digo algo?
Vaya mierda de tecnologias que nos venden..... Solo les interesa control control y mas control!!!!!
nedveros
Si se abre esa puerta es cuando empezaremos a ser dominados por la tecnologia y se acabara el libre albedrío