AI e ChatGPT le nuove armi del Cybercrime: social engineering e clonazione vocale. L’intelligenza artificiale è utilizzata da diverso tempo nell’ambito dei deepfake, una tecnologia che consente di riprodurre in maniera assolutamente fedele all’originale l’immagine e i contenuti vocali di una persona, rubandone sostanzialmente l’identità negli ambienti digitali. Tale tecnologia, come facilmente intuibile, può essere utilizzata con scopi malevoli, ai fini di operare truffe ed estorsioni facendo, ingannando in vari modi il proprio interlocutore.
Nei soli USA, la Federal Traded Commission ha rilevato che nel 2022 le perdite derivate da attività illecite mediante l’utilizzo di deepfake audio/video siano stimabili nell’ordine dei 2,6 miliardi di dollari, con pratiche prevalentemente incentrate sull’estorsione a sfondo sessuale (sextortion). Più recentemente, hanno iniziato a diffondersi altre applicazioni, come i rapimenti virtuali.
AI e ChatGTP per il deepfake: la nuova frontiera della clonazione vocale
La tecnologia deepfake più utilizzata dai cybercriminali è la clonazione vocale, con cui vengono architettate truffe utilizzando file vocali falsi generati attraverso tecniche di intelligenza artificiale, ormai implementate in software di uso comune come VoiceLab, in grado di elaborare la biometria vocale con risultati davvero eccellenti in termini di realismo.
Grazie a tali strumenti, molto semplici da utilizzare, una platea sempre più ampia di cybercriminali può dare luogo ad una truffa sempre più comune che prevede l’utilizzo di audio deepfake, creati utilizzando quantità anche ridotte di informazioni biometriche, raccolte attingendo da fonti assolutamente pubbliche come TikTok, Facebook, Instagram e altre piattaforme social, inclusi i portali governativi.
Ulteriori strumenti di AI generativa, come ChatGPT, consentono di conoscere meglio le potenziali vittime, oltre a creare automaticamente i contenuti per dare luogo alle storie utilizzate per le pratiche ingannevoli.
LEGGI ANCHE: ChatGPT: cos’è e tutto quello che serve sapere oggi
Il caso di cronaca: i rapimenti virtuali
Secondo quanto riportato da TrendMicro nel recente studio Virtual Kidnapping, nell’aprile 2023, in Arizona, una donna di nome Jennifer De Stefano avrebbe ricevuto una chiamata nella quale un anonimo affermava di aver rapito la figlia di 15 anni, chiedendo un riscatto di 1 milione di dollari, minacciando di compiere violenza sulla vittima in caso di mancato pagamento.
Nella testimonianza resa alle forze dell’ordine, la donna ha affermato di aver sentito chiaramente il pianto, le urla e la voce supplichevole della figlia in sottofondo, anche se il criminale si è rifiutato di lasciarla parlare con la figlia al telefono.
Secondo quanto riportato dalla vittima, dopo alcuni minuti di negoziazione, l’importo del riscatto era già sorprendentemente sceso a 50.000 dollari, che non sono stati pagati in quanto la donna aveva nel frattempo potuto verificare che la figlia, fuori casa in quel periodo, non fosse stata effettivamente rapita. La polizia ha in seguito derubricato il caso da rapimento a semplice truffa telefonica a scopo di estorsione.
Condurre un attacco di questo genere implica una conoscenza mirata della vittima che si intende colpire e dei suoi comportamenti, ai fini di ingannarla con scopi malevoli e fraudolenti. Si rientra pertanto nell’ambito della disciplina del social engineering.
Social engineering: come manipolare e ingannare le persone
Come annunciato nel precedente paragrafo, per focalizzare come gli strumenti di clonazione vocale basati sulla AI e ChatGPT siano utilizzati con profitto nelle attività cybercriminali, TrendMicro ha pubblicato uno studio specifico sui rapimenti virtuali, molto utile per avere una panoramica generale sui metodi che vengono impiegati per condurre queste micidiali manipolazioni, che vanno ad alimentare ancor di più il già ampio arsenale di attività di social engineering.
A tal proposito, in relazione al caso limite dei rapimenti virtuali, TrendMicro ha sintetizzato un workflow tipo per quanto riguarda un’attività di social engineering, che prevede le seguenti fasi:
- Identificazione di una potenziale vittima (parente di un rapito). La vittima è una persona in grado di pagare un riscatto.
- Identificazione di una potenziale vittima virtuale di rapimento (il rapito). Solitamente un minore.
- Creazione di una storia. Più la storia è emotivamente manipolativa, più il giudizio e il pensiero critico di una vittima sono compromessi. È molto probabile che una persona spaventata si comporti con meno previdenza.
- Raccolta della biometria vocale della vittima del rapimento virtuale, dai post sui social media. I cybercriminali possono anche prendere la voce di un attore da una scena di rapimento in un film e utilizzare la tecnologia deepfake per creare un audio .
- Identificare tempistiche ed elementi logistici. Sulla base degli aggiornamenti dei social media della vittima del rapimento virtuale, i cybercriminali daranno il via alla truffa quando il soggetto è fisicamente lontano dalla vittima del riscatto, per un periodo sufficientemente lungo. Questo impedisce alla vittima del riscatto di verificare rapidamente se il bambino/minore/rapito è al sicuro, consentendo all’attacco di andare a buon fine.
- Effettuare la chiamata. Gli aggressori possono utilizzare software di modulazione vocale gratuiti per rendere la voce più spaventosa o minacciosa. Durante la chiamata, gli aggressori eseguiranno contemporaneamente l’audio deepfake del presunto rapito.
- Attività post-chiamata. In caso di successo, queste attività possono includere il riciclaggio di denaro del riscatto, l’eliminazione di tutti i file pertinenti e la distruzione del telefono utilizzato.
Sempre secondo TrendMicro, gran parte del lavoro per concretizzare lo schema di attacco sovracitato può essere automatizzato con profitto grazie a strumenti di intelligenza artificiale, come ChatGPT.
Utilizzando ChatGPT, ad esempio, un cybercriminale, oltre ai dati biometrici impiegati per la clonazione vocale, può sfruttare grandi set di dati di potenziali vittime non solo con informazioni vocali e video, ma anche con altre tipologie di dati, a partire dalla geolocalizzazione. Tra le attività che ChatGPT consente di implementare, vi è la possibilità di creare un sistema di punteggio basato sul rischio per la selezione delle vittime, rendendo questo tipo di attacco effeciente e scalabile su vari fronti.
Come difendersi: i consigli di TrendMicro
Secondo TrendMicro, come nel caso degli attacchi ransomware basati sul malware, quando le vittime pagano il riscatto intimato dai cyberciminali, finiscono per incoraggiare i malintenzionati nel continuare a lanciare attacchi contro altre vittime.
Inoltre, le informazioni dei paganti vengono aggiunte a un elenco di vittime etichettate come redditizie, che viene poi rivenduto ad altri aggressori. Questi attacchi implicano un livello di astrazione che supera le tipiche soluzioni di sicurezza a livello di router, in quanto basate su elementi comportamentali, più che relativi a vere e proprie minacce software, come accade in presenza di malware e degli attacchi ransomware.
Per questo, saranno sempre più necessarie tecniche antifrode basate sull’identità, in cui le tecniche difensive si avvalgono di tecniche di AI in maniera antagonista rispetto a quelle predisposte dagli attaccanti. La AI può analizzare i pattern e riconoscere eventuali anomalie comportamentali in dati non strutturati come i file vocali e i video, così come i contenuti dei mondi virtuali del metaverso. Si apre dunque una nuova era nell’ambito dei security analytics.