La nueva estafa telefónica: recrean voces de familiares con Inteligencia Artificial
- Mensajes falsos que parecen auténticos
- Inteligencia Artificial para clonar la voz de una persona
- Datos sensibles
- Riesgos: robo de identidad, daño reputacional...
- Cómo no caer en el engaño
- Transformación Digital anuncia medidas contra las estafas telefónicas
En 2023, una mujer llamada Jennifer DeStefano descolgó el teléfono y escuchó al otro lado de la línea la voz de su hija diciendo que había sido secuestrada. En realidad, era un hombre que, mediante la tecnología de clonación de voz, se estaba haciendo pasar por ella. El estafador le exigió a Jennifer un rescate de 50.000 dólares. Ella, aterrorizada, intentó ganar tiempo y buscar ayuda. La mujer, finalmente, descubrió que era todo una farsa.
Este tipo de estafa es cada vez más frecuente. Se conoce como Voice hacking o clonación de voz y consiste en una técnica avanzada en la que se emplea Inteligencia Artificial para replicar el habla de una persona específica y crear grabaciones que suenan auténticas.
Mensajes falsos que parecen auténticos
"Los estafadores pueden grabar la voz de una persona sin su consentimiento y usar ese audio para crear mensajes falsos que parezcan auténticos", alertan desde el Instituto Nacional de Ciberseguridad (INCIBE). En el caso de Jennifer DeStefano destacan la manipulación emocional a través de un ser querido.
Otro ejemplo: una usuaria contactó con la Línea de Ayuda en Ciberseguridad del INCIBE tras recibir una llamada sospechosa. En la llamada, escuchó la voz de su marido pidiéndole que enviara un mensaje a un número específico.
Intuyendo que algo no estaba bien, la usuaria llamó al número habitual de su marido, quien confirmó que no había sido él. Se concluyó que la voz había sido generada utilizando inteligencia artificial, posiblemente a partir de grabaciones obtenidas en llamadas previas sospechosas.
Inteligencia Artificial para clonar la voz de una persona
Los ciberdelincuentes emplean software avanzado de clonación de voz para replicar la dicción de una persona específica. Esta tecnología utiliza inteligencia artificial para analizar grabaciones de la voz de una persona y crear una versión sintética que suena igual que la original.
Los delincuentes pueden usar esta voz clonada para realizar llamadas telefónicas o enviar mensajes de texto que parecen ser de alguien de confianza, como un ejecutivo de empresa o un familiar. Esto les permite engañar a las víctimas para que realicen acciones como transferencias de dinero, proporcionar información confidencial o realizar compras en línea bajo falsas pretensiones.
Datos sensibles
Los estafadores también suelen hacerse pasar por representantes de instituciones confiables, como bancos, servicios de atención al cliente o incluso agencias gubernamentales. Durante la llamada, pueden utilizar técnicas de ingeniería social para ganar la confianza de la víctima, haciéndole creer que debe proporcionar datos sensibles como números de cuentas bancarias, contraseñas, o detalles de tarjetas de crédito. Los delincuentes pueden utilizar esta información para realizar transacciones fraudulentas o para cometer otros tipos de fraude financiero.
En 2019, una empresa de energía en el Reino Unido fue estafada por 220.000 euros cuando los atacantes utilizaron software de inteligencia artificial para clonar la voz del CEO de la empresa matriz. Con esta voz clonada, los estafadores hicieron una llamada telefónica al director de una subsidiaria, solicitando una transferencia urgente de fondos a una cuenta en Hungría.
La voz era tan convincente que el director, confiando en la autenticidad de la solicitud, ordenó la transferencia sin dudar. El fraude se descubrió demasiado tarde para recuperar el dinero.
Riesgos: robo de identidad, daño reputacional...
El voice hacking plantea una serie de riesgos que van más allá de lo imaginado. Uno de los peligros más alarmantes es el robo de identidad.
Esta suplantación puede utilizarse para acceder a cuentas bancarias, realizar transacciones fraudulentas o modificar datos personales, lo que no solo resulta en pérdidas económicas, sino también en una ardua batalla por restaurar la identidad comprometida.
Además, el impacto puede extenderse al ámbito personal y profesional a través del daño reputacional. La clonación de voces permite a los ciberdelincuentes enviar mensajes falsos o comprometedores que deterioran relaciones familiares, amistosas o profesionales. En algunos casos, estas acciones afectan de manera irreversible la imagen pública de las víctimas.
La pérdida financiera es otro de los riesgos tangibles. Los estafadores pueden autorizar compras no deseadas, transferir fondos de forma fraudulenta o acceder a información financiera sensible. Muchas veces, el dinero perdido es difícil de recuperar, especialmente cuando los fondos son desviados a cuentas en el extranjero, dejando a las víctimas frente a un panorama desolador.
Cómo no caer en el engaño
La prevención y la seguridad son claves para minimizar los riesgos de esta sofisticada forma de estafa. La primera medida pasa por desconfiar de llamadas de números desconocidos. Ante una comunicación sospechosa, es esencial verificar la identidad del interlocutor a través de otros medios confiables. Evitar actuar impulsivamente ante historias alarmantes o urgentes puede marcar la diferencia entre ser víctima o frustrar un intento de fraude.
Otra recomendación es el uso de contraseñas seguras y actualizarlas regularmente. Combinaciones complejas que incluyan mayúsculas, minúsculas, números y caracteres especiales ofrecen una barrera eficaz frente a accesos no autorizados. Herramientas como los gestores de contraseñas pueden facilitar la creación y almacenamiento de claves únicas para cada cuenta, reduciendo así las vulnerabilidades.
Para aquellos que utilizan asistentes de voz, configurar la autenticación de voz es una herramienta adicional que dificulta los accesos no deseados. Este sistema permite que los dispositivos respondan únicamente a voces registradas, incrementando la seguridad frente a intentos de suplantación.
Además, se recomienda utilizar estos asistentes exclusivamente en entornos privados, evitando lugares públicos donde las conversaciones podrían ser grabadas y posteriormente utilizadas con fines maliciosos.
Mantener los dispositivos actualizados es otra estrategia fundamental. Las actualizaciones regulares de software no solo corrigen fallos, sino que también refuerzan las defensas contra nuevas técnicas de ataque. Instalar los parches de seguridad tan pronto como estén disponibles reduce el riesgo de explotación de vulnerabilidades.
Transformación Digital anuncia medidas contra las estafas telefónicas
El ministro para la Transformación Digital, Óscar López, anunció en octubre un paquete de medidas para combatir las estafas telefónicas, un "fraude que se ha vuelto demasiado habitual".
"Una de cada tres consultas atendidas por el teléfono 017 del Instituto Nacional de Ciberseguridad tiene que ver con fraudes realizados a través de SMS, teléfono y correo electrónico", recuerdan desde el ministerio.
Para frenar los fraudes cometidos tanto mediante llamadas de teléfono como por mensajes de texto, Óscar López ha concretado las medidas que regulará Transformación Digital.
En primer lugar, se ha anunciado el bloqueo por parte de los operadores de las llamadas que utilizan números que no hayan sido atribuidos a ningún servicio, asignados a ningún operador o adjudicados a ningún cliente y de llamadas y SMS de numeración nacional, pero con origen internacional
También se creará una base de datos, que gestionará la Comisión Nacional de los Mercados y de la Competencia, con los usuarios que utilizan alfanuméricos en sus mensajes (por ejemplo, el nombre de la compañía). Aquellos mensajes procedentes de entidades no incluidas en esta base de datos quedarán bloqueados.