Ha surigdo una nueva estafa que usa una voz clonada con IA para suplantar al banco o a un familiar y presionar a la víctima para que autorice transferencias, entregue códigos o comparta datos sensibles. Los delincuentes suelen combinar un SMS alarmante con una llamada creíble y aprovechan la urgencia para que la persona actúe sin comprobar nada.

En la actualidad, basta muy poco audio para imitar una voz de forma convincente mediante vídeos de redes sociales, mensajes de voz o llamadas grabadas. INCIBE ya ha documentado casos similares y advierte de que esta técnica funciona especialmente bien porque mezcla confianza, prisa y apariencia de normalidad.

Para evitarlo, se recomienda colgar y llamar al número oficial del banco, no compartir códigos de verificación y no autorizar operaciones por teléfono si alguien las pide de forma inesperada. También hay que desconfiar de cualquier mensaje que exija actuar de inmediato, porque esa presión suele delatar un fraude.

Fuente: Escudo Digital


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más noticias
Nueva oleada de estafas usando voces clonadas por IA
Leer más »
Una brecha en la Comisión Europea salpica unas treinta instituciones
Leer más »
Un ciberataque expone datos y entradas de aficionados del FC Ajax
Leer más »
Michelin sufre una exfiltración de datos
Leer más »
Atacan un centro de investigación nuclear en Polonia
Leer más »