En Washington Post cuentan la historia de Ruth, una anciana que recibió una llamada de su nietao eso estaba pensando. La voz que estaba hablando con ella era exacta a la de su nieto y contaba que estaba en la cárcel y necesitaba pagar una cuantiosa fianza.

Sin pensarlo, Ruth y su marido corrieron a buscar el dinero y tras varias oficinas intentando reunir el dinero, el director del banco se percató que sucedía algo extraño y que otro cliente pasó por lo mismo. La advertencia era real: la llamada se generó mediante un deepfake de audio.

In 2022 este tipo de fraudes en los que alguien suplanta la identidad en una llamada telefónica con prácticamente 36.000 denuncias. La IA capaz de emular cualquier voz humana a través de un pequeño entrenamiento es VALL-E, de Microsoft.

El consejo ante una situación de este tipo es poner la llamada en espera y llamar a la persona real por otra vía, ya que también es posible manipular el número que aparece al destinatario de la llamada.

Fountain: Engadget


Leave a Reply

Your email address will not be published. Required fields are marked *

More news
A cybercriminal manages to use AI to steal data from the Mexican Government
Read more »
Intec creates an AI that redefines the rules of the game in cybersecurity in the AI era.
Read more »
Una exfiltración de datos afecta a un proveedor de Adidas
Read more »
Se incrementan un 26% los incidentes de ciberseguridad
Read more »
Un ciberataque paraliza en Roma la Universidad La Sapienza
Read more »