I ladri stanno usando i deepfake dell’IA per indurre le aziende a inviare loro denaro

Quindi i crimini di intelligenza artificiale sono ormai un fatto

Sembra che ogni pochi giorni ci sia un altro esempio di un deepfake convincente che diventa virale o un altro software gratuito e facile da usare ( alcuni addirittura realizzato per dispositivi mobili ) che può generare video o audio convincenti progettati per indurre qualcuno a credere a un pezzo di artificio virtuale è reale. Ma secondo il Wall Street Journal , potrebbero presto esserci gravi conseguenze finanziarie e legali sulla proliferazione della tecnologia dei deepfake.

La pubblicazione ha riportato la scorsa settimana che l’amministratore delegato di una compagnia energetica britannica è stato ingannato nel collegare € 200.000 (o circa $ 220.000 USD) a un fornitore ungherese perché credeva che il suo capo gli stesse dicendo di farlo. Ma la compagnia assicurativa della compagnia energetica, Euler Hermes Group SA, ha detto al WSJ che un abile truffatore dotato di intelligenza artificiale stava usando un software deepfake per imitare la voce dell’esecutivo e richiedere che il suo sottotitolo lo pagasse entro un’ora.

“Il software è stato in grado di imitare la voce e non solo la voce: la tonalità, la punteggiatura, l’accento tedesco”, un portavoce di Euler Hermes in seguito ha detto al Washington Post . La telefonata era accompagnata da un’e-mail e il CEO dell’azienda energetica obbligava. I soldi ora sono andati, dopo essere stati spostati attraverso i conti in Ungheria e Messico e dispersi in tutto il mondo, secondo quanto riportato da Post .

DEEPFAKES È STATO USATO PER RUBARE DALLE AZIENDE IN ALMENO TRE CASI
Più tardi, dopo aver fatto una seconda richiesta dai ladri, il CEO dell’azienda energetica ha chiamato il suo vero capo, solo per ritrovarsi a gestire contemporaneamente le chiamate sia dalla versione falsa che da quella reale dell’uomo, il che ha avvisato l’amministratore delegato del furto in corso. Euler Hermes ha rifiutato di nominare la società energetica o la sua società madre tedesca.

Potrebbe non essere la prima volta che succede. Secondo la Posta , la società di sicurezza informatica Symantec afferma di aver riscontrato almeno tre casi di frodi vocali profonde utilizzate per indurre le società a inviare denaro a un conto fraudolento. Symantec ha riferito al Post che almeno uno dei casi, che sembra essere distinto da quello confermato da Euler Hermes, ha comportato perdite per milioni di dollari.

La situazione mette in luce la natura irta della ricerca sull’IA, in particolare attorno alla creazione artificiale di video e audio. Mentre nessuna delle grandi aziende della Silicon Valley con grandi e capaci istituti di ricerca sull’IA sta sviluppando apertamente software di video deepfake, alcuni stanno lavorando diligentemente nel regno dell’audio.

Il controverso servizio Duplex di Google utilizza l’IA per imitare la voce di un vero essere umano in modo che possa effettuare chiamate telefoniche per conto di un utente. Un numero di startup più piccole, molte delle quali si trovano in Cina, offrono servizi simili gratuitamente su smartphone, a volte in condizioni discutibili di privacy e raccolta dei dati. Nel frattempo, i ricercatori delle aziende tecnologiche e del mondo accademico stanno cercando di sviluppare software di rilevamento dei falsi . Altri ricercatori stanno scoprendo fino a che punto un falso convincente può essere generato e proposto usando quantità di dati ancora più piccole .

In altre parole, i deepfake sono qui e possono essere pericolosi. Avremo solo bisogno di strumenti migliori per risolvere il vero dal falso.

Di ihal