La nascita di WormGPT e il rischio della corruzione dei modelli linguistici segnano un pericoloso aumento della sofisticazione dei cyber-attacchi.
L’intelligenza artificiale generativa (GAI) ha dimostrato una straordinaria versatilitĂ e utilitĂ , trovando applicazione in un’ampia gamma di settori. Tuttavia, questa stessa versatilitĂ ha aperto nuove possibilitĂ per l’uso improprio, in particolare da parte dei cybercriminali. Le campagne di phishing, infatti, diventano sempre piĂ¹ sofisticate, alimentate dalla nuova generazione di strumenti basati sull’IA.
Un esempio recente è WormGPT, un chatbot per hacker liberamente disponibile su vari siti di hacking. Creato con l’intento di facilitare gli “attacchi di compromissione delle e-mail”, WormGPT puĂ² essere utilizzato per ideare campagne di e-mail personalizzate altamente convincenti, mirate ai dipendenti di organizzazioni commerciali, governative o no-profit.
WormGPT si colloca come alternativa alle IA consumer come Bard e ChatGPT, utilizzando un proprio modello linguistico proprietario. Senza limiti etici, WormGPT è descritto dal suo creatore come “il piĂ¹ grande nemico del famoso ChatGPT”, un software capace di facilitare varie attivitĂ illegali.
Nonostante WormGPT sia posizionato come un malware specialistico, altri strumenti piĂ¹ tradizionali basati sull’intelligenza artificiale possono essere altrettanto dannosi. Bard, il chatbot di Google ora disponibile in Italia, è un esempio emblematico. Secondo Check Point Research, gli hacker hanno giĂ iniziato a sfruttare l’IA di Bard per generare contenuti dannosi, sfruttando la facilitĂ con cui si puĂ² aggirare il suo sistema di vincoli etici, rispetto ad esempio a quelli di ChatGPT.
La preoccupazione cresce ulteriormente con la possibilitĂ di “corrompere” modelli linguistici di grandi dimensioni. I ricercatori di Mithril Security hanno dimostrato come modificare un modello linguistico open-source, chiamato GPT-J-6B, trasformandolo in uno strumento specializzato nella disinformazione. Questo modello, ribattezzato PoisonGPT, è stato poi reso disponibile su un repository pubblico, esponendo un’intera catena di fornitura di LLM (Language Model) al rischio di avvelenamento.
Questi sviluppi sono allarmanti. L’uso distorto dell’IA per finalitĂ malevole mette in risalto la necessitĂ di robusti protocolli di sicurezza, normative chiare e sensibilizzazione pubblica. Con la rapida evoluzione dell’intelligenza artificiale, è fondamentale che le organizzazioni di sicurezza e i legislatori mantengano il passo con queste nuove minacce, garantendo al contempo che le opportunitĂ offerte dalla GAI non siano soffocate da un clima di paura e diffidenza. Il settore della cybersecurity si trova di fronte a una nuova sfida, e la sua risposta determinerĂ in gran parte il futuro dell’intelligenza artificiale.