Los estafadores bancarios han comenzado a utilizar inteligencia artificial (IA) para replicar la voz de las personas y así llevar a cabo fraudes cada vez más sofisticados. Con solo unos pocos segundos de grabación de audio obtenida de videos o redes sociales, los delincuentes pueden clonar la voz de una víctima y usarla para engañar a familiares o amigos, pidiéndoles dinero en su nombre. Esta táctica ha afectado ya a cientos de personas, y expertos advierten que millones podrían ser vulnerables a este tipo de estafa.
Según una encuesta realizada por Starling Bank, un banco del Reino Unido, más de una cuarta parte de los encuestados ha sido blanco de intentos de fraude por clonación de voz en los últimos meses. Lo más alarmante es que el 46% de las personas no estaban al tanto de que este tipo de estafas existían, y un 8% dijo que enviaría dinero incluso si la llamada pareciera sospechosa. La facilidad con la que los estafadores pueden acceder a audios personales hace que esta técnica sea especialmente peligrosa.
Para protegerse, los expertos recomiendan a las personas acordar una «frase segura» con sus seres queridos, una especie de código que pueda usarse para verificar la identidad durante llamadas. Esto es crucial, ya que las voces clonadas pueden sonar extremadamente reales, lo que hace difícil distinguirlas de una llamada auténtica. Además, se aconseja no compartir esta frase por mensajes de texto, ya que podría ser interceptada.
El uso de la IA en fraudes está en aumento, y su capacidad para replicar voces plantea riesgos no solo para estafas bancarias, sino también para difundir información errónea o acceder a cuentas personales. La tecnología de síntesis de voz, como la desarrollada por OpenAI, ha demostrado ser tan avanzada que se mantiene bajo control estricto para evitar su mal uso.
Fuente: Segu-Info