Alcuni mesi fa, il direttore di una banca negli Emirati Arabi Uniti ha ricevuto una chiamata da un cliente di vecchia data, il direttore di una società con cui aveva già parlato in precedenza. L’uomo era eccitato dal fatto che la sua azienda stava per fare un’importante acquisizione, quindi aveva bisogno che la banca autorizzasse un trasferimento di 35 milioni di dollari il più presto possibile. Il cliente aggiunse che un avvocato di nome Martin Zelner era stato ingaggiato per gestire l’acquisizione, e il manager poteva vedere le e-mail dell’avvocato nella sua casella di posta. Aveva già parlato con il cliente, aveva riconosciuto la sua voce e tutto quello che aveva detto era confermato.

Il direttore della banca ha autorizzato i trasferimenti bancari, fiducioso che tutto fosse legittimo, ma in realtà, era appena caduto vittima di un’elaborata truffa ad alta tecnologia. La persona con cui aveva parlato al telefono aveva usato la tecnologia AI “deepvoice” per clonare la voce del cliente della banca e rendere impossibile per chiunque distinguerla dall’originale.

La mega truffa è stata rivelata in documenti giudiziari in cui gli Emirati Arabi cercano l’aiuto degli investigatori americani per rintracciare parte dei 35 milioni di dollari che apparentemente sono andati in conti con sede negli Stati Uniti tenuti dalla Centennial Bank.

Non sono state rivelate molte informazioni in questo caso, a parte il fatto che le autorità degli Emirati Arabi Uniti credono che l’elaborato schema abbia coinvolto almeno 17 persone e che il denaro sia stato inviato a conti in tutto il mondo, per renderlo difficile da rintracciare e recuperare.

Si tratterebbe del secondo caso conosciuto di una rapina in banca che coinvolge la tecnologia deepvoice, con il primo avvenuto nel 2019, ma gli esperti di criminalità informatica avvertono che questo è solo l’inizio. Sia i video deepfake che le tecnologie deepvoice si sono evoluti a un ritmo sorprendente, e i criminali sono destinati a trarne vantaggio.

Manipolare l’audio, che è più facile che fare video deep fake, comporta grossi rischi e senza l’educazione e la consapevolezza di questo nuovo tipo di attacco, insieme a migliori metodi di autenticazione, è probabile che più aziende cadano vittime di conversazioni molto convincenti“, ha detto l’esperto di cybersecurity Jake Moore. Siamo attualmente all’apice degli attori maligni che spostano le competenze e le risorse nell’utilizzo delle ultime tecnologie per manipolare le persone che sono innocentemente ignare dei regni della tecnologia deep fake e persino della loro esistenza.

WP2Social Auto Publish Powered By : XYZScripts.com