La clonación de voces con IA se ha convertido en una poderosa aliada de los estafadores
Las personas de más de 70 años son especialmente vulnerables a estos engaños
Paddric Fitzgerald estaba en el trabajo cuando recibió una llamada de teléfono de un número que no conocía. Al cogerlo, revelan en Financial Times, el terror. "[Mi hija] gritaba de fondo diciendo que la iban a cortar mientras yo estaba en la conversación. Les iba a dar todo lo que tengo económicamente".
No era su hija, era una IA. Justo en ese momento y por casualidad recibió un mensaje normal de su hija desde su teléfono. Eso le permitió descubrir que lo que estaba oyendo no era la voz de su hija. Era una voz generada con inteligencia artificial, y este tipo de técnica se ha convertido en la nueva y aterradora estafa que están usando los criminales.
Una herramienta peligrosa. Era inevitable que los avances en modelos de IA generativa acabasen siendo utilizados para este tipo de fines. Es precisamente una de las cosas de las que nos advertía Geoffrey Hinton, el calificado como "padrino de la IA", cuando abandonó Google y mostró su preocupación por cosas como los deepfakes.
Esto irá a más. Dichas estafas y fraudes están creciendo por momentos, aunque de momento es difícil saber el impacto real de dicha tecnología en este tipo de delitos. Alex West, consultor en PwC, fue coautor de los pocos estudios recientes sobre el tema, y explicó cómo "Los estafadores ya tienen mucho éxito" y puede que tan solo estén comenzando a usar esta tecnología, "pero está claro que aumentarán los intentos de estafa más sofisticados".
Tres segundos de tu voz bastan para clonarla. La técnica no es nueva, y ya vimos cómo un delincuente la usó para robar un banco en los Emiratos Árabes Unidos en 2021, pero los avances en este tipo de sistemas han hecho que ahora el acceso a dichas herramientas y sus prestaciones sean aún más espectaculares. En feberro de 2023 un estudio científico de investigadores de Microsoft lo demostró. Su sistema, VALL-E, era capaz de clonar voces con una calidad excepcional con tan solo una muestra de voz original de tres segundos.
Cualquiera puede acceder a estas herramientas. Expertos en generación de contenidos vía IA como Henry Ajder —que ha asesorado a empresas como Meta o Adobe— destacaban cómo la IA ha permitido avanzar de forma notable en este tipo de estafas de suplantación de identidad, pero es que además "la barrera de entrada es mucho más baja de lo que era".
Los mayores de 70, especialmente vulnerables. Según datos de la Federal Trade Commission citados en FT, las estafas se ceban especialmente en nuestros mayores, y las pérdidas de media son más altas cuanto más mayores son las víctimas: las personas por encima de 80 años, por ejemplo, doblan en pérdidas a las que sufren personas en rangos que van de los 20 a los 70. Lo saben bien Ruth Card, de 73 años, y su marido, que casi cayeron en la trampa hace unos meses.
Si tu hija te llama y está en peligro, no te fíes. ¿Qué hacer para protegerse? Aunque sea difícil en momentos como esos, hay que intentar desconfiar y no actuar en caliente. Llamar al número de ese familiar o amigo que dice estar en peligro y tratar de contactar con él o ella por todos los medios. Es la forma más segura de averiguar si nos están intentando estafar.
Imagen | Devin Kaselnak
Ver todos los comentarios en https://www.xataka.com
VER 4 Comentarios