Attacchi basati sull’Intelligenza artificiale: l’evoluzione di un fenomeno 

È prevedibile che i criminali sfruttino le nuove tecnologie per automatizzare le loro attività. Se le email di spam sono state un passo avanti importante nella tecnologia al servizio delle truffe, l’Intelligenza artificiale è destinata a fare lo stesso. Se esistesse già una tecnologia AI in grado di creare minacce automatizzate complete, verrebbe sicuramente utilizzata.
Sophos X-Ops ha pubblicato due report dedicati all’utilizzo dell’AI dal cybercrimine. Il primo, The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI, dimostra come nel futuro potranno essere sfruttate tecnologie come ChatGPT per perpetrare frodi su vasta scala e a fronte di competenze tecniche minime. Il secondo, Cybercriminals Can’t Agree on GPTs, rileva come nonostante le potenzialità dell’AI, alcuni cybercriminali siano ancora scettici e perfino preoccupati circa l’adozione degli LLM (Large Language Model) come ChatGPT per gli attacchi.

Costruire siti fraudolenti richiede pochissime conoscenze tecniche

Costruire e attivare il sito web ha richiesto pochissime conoscenze tecniche, e con lo stesso strumento, Sophos X-Ops è riuscita in pochi minuti a creare centinaia di siti simili semplicemente premendo un pulsante.
“Abbiamo già assistito all’integrazione di elementi di AI generativa nelle truffe classiche, come testi o fotografie prodotti da AI, per adescare vittime – dichiara Ben Gelman, senior data scientist di Sophos -. Tuttavia, creando un sistema per la generazione di siti fraudolenti su vasta scala ben più avanzato dei tool attualmente impiegati dai criminali, abbiamo la particolare opportunità di analizzare la minaccia, e prepararci ad affrontarla prima che possa proliferare”.

Le potenzialità di GPT ai fini del social engineering

Sebbene il ricorso alla AI da parte dei cybercriminali sia solo all’inizio all’interno del dark web si discute sulle potenzialità di questa tecnologia ai fini del social engineering.
Sophos X-Ops ha già verificato l’impiego di AI nelle criptotruffe, scoprendo che la maggioranza dei post riguardava la vendita di account ChatGPT compromessi, e dei cosiddetti ‘jailbreak’, sistemi che permettono di aggirare le protezioni integrate negli LLM in modo da poterli sfruttare per obiettivi illeciti.

Sono stati anche trovati dieci derivati da ChatGPT che possono essere usati per lanciare cyberattacchi e sviluppare malware.
Le reazioni di fronte a questi tool e altre applicazioni illecite degli LLM non sono però univoche. Molti criminali temono addirittura che gli autori di queste imitazioni di ChatGPT stiano tentando di truffarli.

Il dibattito sugli LLM divide anche il dark web

In due dei quattro forum del dark web analizzato a fronte di solo 100 post dedicati all’AI ben 1.000 erano sul tema criptovalute.
“Alcuni cybercriminali hanno provato a creare malware o tool di attacco mediante LLM, ma i risultati sono stati alquanto rudimentali e spesso accolti con scetticismo dagli altri utenti – aggiunge Christopher Budd, director, X-Ops research Sophos -. In un caso, un cybercriminale deciso a dimostrare le potenzialità di ChatGPT ha rivelato inavvertitamente informazioni significative sulla sua reale identità. Abbiamo persino trovato numerosi articoli d’opinione relativi ai possibili effetti negativi dell’AI sulla società e alle implicazioni etiche del suo utilizzo. In altre parole, almeno per ora, pare che i dibattiti sugli LLM in corso tra cybercriminali siano gli stessi di chiunque altro”.