Tras la explosión de las posibilidades que abre la Inteligencia Artificial empezaron a llegar las primeras dudas sobre el alcance de esta tecnología y, sobre todo, de sus usos y empleos éticos. El clásico dilema de a quién debería intentar salvar un coche autónomo en un accidente de tráfico abrió la puerta a muchas interpretaciones e intentos por sentar las bases para que la Inteligencia Artificial fuera ética.
El problema, sin embargo, es que hay tantas aproximaciones, planteamientos y esfuerzos que muchos de ellos pueden acabar perdiéndose por el camino o que valgan para unos sistemas de Inteligencia Artificial, pero no para todos. Algo que el Foro Económico Mundial quiere resolver.
Para ello, se propone como punto de encuentro de todas las iniciativas, tanto públicas como privadas y de la sociedad civil, que están surgiendo para promover un uso ético de la Inteligencia Artificial.
Para ello, ha lanzado Global AI Action Alliance (GAIA), una iniciativa con la que quiere que todos estos proyectos se materialicen. Porque, según este organismo, al mismo tiempo que se desarrollan las tecnologías de la IA, no solo aparecen dudas, sino nuevas guías para promover estos usos éticos lo que, a su vez, generan nuevos silos y barreras.
La interoperabilidad de las cuestiones éticas
Según este organismo, hay al menos 175 iniciativas para que los sistemas de inteligencia artificial sean confiables, transparentes e inclusivos. Algunas son de empresas privadas, como la de Google. La propia Unión Europea está intentando legislar los aspectos éticos de la IA. Otras iniciativas son de la sociedad civil, como OdiseIA en España. Todas ellas surgen después de que se hayan producido varias controversias, como los sistemas de reconocimiento facial, las deep fake o, más recientemente, la creación de bots con voces de personas fallecidas.
Todas estas aplicaciones tan controvertidas de estas tecnologías han generado recelos y desconfianza entre los usuarios. De hecho, según un estudio de la Universidad de Oxford y la Comisión Europea, el 84% de los estadounidenses y el 88% de los europeos creen que la IA debe ser "manejada con cuidado" sobre la base de su potencial para producir resultados sociales dañinos.
Aunque el WEF (World Economic Forum, por sus siglas en inglés) cree que es bueno que exista esa inquietud por resolver las cuestiones éticas en la Inteligencia Artificial, le pone una pega: se está creando una brecha en la implementación de esas bases éticas. Es decir, que "es más fácil definir cuáles son los estándares éticos que un sistema debería seguir que diseñar y desplegar un sistema que cumpla esos estándares”.
Facilitar y no entorpecer la aplicación de la ética
El Foro Económico Mundial quiere, por tanto, reunir todos estos esfuerzos para que no supongan nuevas barreras de conocimiento y aprendizaje.
El objetivo es fomentar una colaboración a nivel mundial y que aquellas prácticas y herramientas que han demostrado ser útiles puedan tener una rápida aplicación por parte de todos los implicados, garantizando por tanto que estas bases éticas son interoperables y aplicables en cualquier tecnología reaccionada con la Inteligencia Artificial.
El organismo cree que hay que acelerar la adopción de los sistemas transparentes e inclusivos y en los que pueda confiar todo el mundo. Algo para lo que, vaticina, queda un camino largo. “No es una cuestión de derecho sino un factor crítico para el éxito de instituciones, gobiernos, empresas o de otro tipo que estén utilizando la inteligencia artificial”, asegura.
Por eso, este proyecto quiere generar los entornos de trabajo para que los desarrolladores puedan trabajar con estas guías éticas en tiempo real y, a su vez, generar más confianza a los usuarios.
De esta forma, el objetivo final es acelerar la adopción de una inteligencia artificial transparente, confiable e inclusiva a nivel mundial y en todos los sectores.
En estos momentos, empresas como Accenture, BBVA, Dell, Deloitte, EY, Facebook, HPE, Huawei, Microsoft, Netflix, Palantir, Salesforce o VMware ya forman parte de esta iniciativa. Todas ellas se han comprometido a diseñar de manera conjunta los frameworks y protocolos de gobernanza de datos para acelerar los beneficios y mitigar los riesgos de la IA. Estos frameworks serán también probados en proyectos piloto de bajo riesgo para validar su impacto.
Ver 0 comentarios