La recente truffa ai danni di grandi imprenditori italiani, realizzata con deepfake vocali del ministro Crosetto, dimostra come l’AI possa essere usata per creare Malicious Digital Twins, ovvero gemelli digitali cattivi capaci di ingannare persone e aziende. Un fenomeno già segnalato, che rende le frodi sempre più sofisticate e difficili da individuare.
Come spesso accade, purtroppo, è la cronaca a restituirci il senso della gravità delle minacce cyber e della loro crescente sofisticazione.
Di nuovo un fatto di rilevanza nazionale, che questa volta coinvolge il mondo della finanza e il mondo della politica.
Come ampiamente riportato da quotidiani e telegiornali in questi giorni, un sofisticato tentativo di truffa ha coinvolto alcuni tra i più importanti imprenditori italiani, sfruttando l’intelligenza artificiale per clonare la voce del ministro della Difesa Guido Crosetto e di alcuni suoi collaboratori. I truffatori, utilizzando tecnologie avanzate di sintesi vocale, hanno “creato” telefonate apparentemente credibili, chiedendo supporto economico urgente a supporto di una presunta operazione di intelligence per liberare giornalisti tenuti in ostaggio all’estero. Le vittime venivano contattate da un numero che sembrava appartenere al ministero e, convinte dall’apparente autenticità della richiesta, venivano esortate a effettuare ingenti bonifici su conti esteri, in particolare a Hong Kong, con la promessa di un successivo rimborso da parte della Banca d’Italia.
L’allarme è scattato quando alcune delle persone contattate, tra cui Giorgio Armani, Massimo Moratti e Marco Tronchetti Provera, hanno verificato direttamente con Guido Crosetto l’autenticità delle telefonate, scoprendo così la frode. Forse un po’ in ritardo, dato che secondo quanto emerso dalle indagini, almeno un imprenditore è caduto nella trappola, trasferendo verso i conti indicati circa un milione di euro.
Le indagini della Procura di Milano sono in corso per individuare l’intera rete di truffatori e per tentare di recuperare il denaro sottratto, anche se il trasferimento su conti esteri non tracciabili rende l’operazione particolarmente complessa. Nel frattempo, Banca d’Italia ha messo in guardia contro truffe simili, segnalando altri tentativi di frode in cui il suo nome e logo sono stati usati in modo fraudolento per indurre vittime a effettuare pagamenti illeciti.
Ovviamente, degli sviluppi di cronaca si occuperanno altri media. In questa sede ci preme invece sottolineare come questa truffa sia di fatto un esempio concreto di come l’intelligenza artificiale possa essere utilizzata per azioni dannose.
In questo specifico caso, l’AI è stata utilizzata per creare malicious digital twins, ovvero gemelli digitali “cattivi”, copie digitali fraudolente di persone reali. I truffatori hanno sfruttato tecnologie di deepfake vocali, ricostruendo la voce del ministro e di altri funzionari per effettuare telefonate credibili.
Deepfake e Malicious Digital Twins: cosa sono e come funzionano
Cerchiamo di capire di cosa si tratta.
Cosa sono i deepfake e come funzionano?
I deepfake sono contenuti digitali falsificati, creati tramite intelligenza artificiale per modificare o generare immagini, video e audio in modo estremamente realistico. Il termine nasce dalla combinazione di deep learning (apprendimento profondo) e fake (falso), e indica proprio l’uso di algoritmi avanzati per creare contenuti contraffatti che possono ingannare gli utenti facendogli credere che una persona abbia detto o fatto qualcosa che in realtà non è mai accaduto.
I deepfake si basano su reti neurali artificiali, in particolare su tecniche di machine learning come le reti antagoniste generative (GAN, Generative Adversarial Networks). Il processo di creazione di un deepfake prevede diversi passaggi:
- Raccolta dei dati: L’AI analizza migliaia di immagini, video o registrazioni vocali della persona da replicare. Più dati vengono raccolti, più il risultato sarà realistico.
- Apprendimento del modello: Il sistema di deep learning impara a riconoscere e riprodurre espressioni facciali, movimenti, tono di voce e caratteristiche distintive della vittima.
- Generazione del contenuto falso: Una volta addestrata, l’AI è in grado di generare contenuti che sembrano autentici, in cui il soggetto appare dire o fare qualcosa che in realtà non ha mai fatto.
- Miglioramento e perfezionamento: Con le GAN, due reti neurali lavorano insieme: una genera il deepfake, mentre l’altra verifica la sua autenticità. Questo processo permette di affinare sempre di più il risultato, rendendolo quasi indistinguibile da un contenuto reale.
Esistono diversi tipi di deepfake, ciascuno con scopi e applicazioni differenti. I deepfake video manipolano il volto e le espressioni di una persona all’interno di un filmato, permettendo, ad esempio, di sostituire il volto di un attore con quello di un’altra persona. I deepfake audio, invece, clonano la voce di un individuo, generando registrazioni in cui sembra pronunciare parole che in realtà non ha mai detto. È questa la tecnica utilizzata nella truffa che ha coinvolto il ministro Crosetto. Infine, i deepfake testuali sfruttano modelli linguistici avanzati, come quelli alla base di ChatGPT o Bard, per replicare lo stile di scrittura di una persona e generare comunicazioni apparentemente autentiche ma completamente false.
L’uso di questa tecnologia comporta rischi significativi. Uno dei pericoli maggiori riguarda le frodi finanziarie, come dimostra il caso in esame, in cui i truffatori hanno sfruttato un deepfake vocale per ingannare imprenditori e convincerli a effettuare bonifici su conti esteri. Un altro ambito critico è la disinformazione e la manipolazione politica, poiché deepfake video e audio possono essere utilizzati per diffondere dichiarazioni false attribuite a leader o personaggi pubblici, con conseguenze potenzialmente destabilizzanti. Infine, vi è il problema del cyberbullismo e della reputazione digitale, poiché la creazione e la diffusione di video contraffatti possono compromettere gravemente l’immagine e la credibilità di un individuo, con ripercussioni sul piano personale e professionale.
I Malicious Digital Twins, gemelli digitali cattivi
I Malicious Digital Twins sono un’estensione ancora più sofisticata dei deepfake. Mentre un deepfake si limita a riprodurre un singolo elemento, come la voce o il volto di una persona, un gemello digitale cattivo è una replica complessiva dell’identità di un individuo, costruita sfruttando dati personali rubati e modelli di intelligenza artificiale generativa. I gemelli digitali cattivi sono capaci di simulare il comportamento, lo stile di comunicazione, le opinioni e perfino la personalità della vittima, rendendoli strumenti ideali per attacchi di social engineering avanzati. Possono essere impiegati per ingannare non solo individui, ma anche sistemi aziendali, facilitando attacchi come il phishing avanzato, le frodi finanziarie e la manipolazione dell’informazione.
Ne aveva parlato proprio nei giorni scorsi Trend Micro, sottolineando proprio il rischio crescente dei Malicious Digital Twins. Nel suo report The Easy Way In/Out: Securing The Artificial Future, l’azienda ha per l’appunto spiegato come i cybercriminali possano addestrare modelli AI su dati trafugati per replicare voce, stile comunicativo e comportamenti delle vittime, rendendo questi attacchi sempre più sofisticati e difficili da individuare.
Come difendersi dai gemelli digitali cattivi
Contrastare queste minacce richiede un approccio su più livelli, combinando tecnologie di sicurezza avanzate e una maggiore consapevolezza del rischio. Le aziende dovrebbero implementare sistemi di autenticazione multifattore (MFA) per verificare con certezza l’identità di chi effettua richieste sensibili, mentre strumenti di rilevamento delle anomalie basati su AI possono identificare pattern sospetti nelle comunicazioni. A livello individuale, è fondamentale adottare strategie di verifica rigorose, come doppie conferme tramite canali diversi (ad esempio, verificare una richiesta di bonifico con una chiamata diretta anziché affidarsi solo a un’email o a una telefonata). Inoltre, la formazione su come riconoscere deepfake e attacchi di ingegneria sociale è essenziale per ridurre il rischio di cadere vittima di truffe sempre più sofisticate. In un mondo digitale in cui la realtà può essere facilmente manipolata, la prudenza e la verifica costante diventano strumenti di difesa imprescindibili.
LEGGI ANCHE: Malware cos’è, come riconoscerlo e quali sono le diverse tipologie