La nascita di WormGPT e il rischio della corruzione dei modelli linguistici segnano un pericoloso aumento della sofisticazione dei cyber-attacchi.

L’intelligenza artificiale generativa (GAI) ha dimostrato una straordinaria versatilità e utilità, trovando applicazione in un’ampia gamma di settori. Tuttavia, questa stessa versatilità ha aperto nuove possibilità per l’uso improprio, in particolare da parte dei cybercriminali. Le campagne di phishing, infatti, diventano sempre più sofisticate, alimentate dalla nuova generazione di strumenti basati sull’IA.

Un esempio recente è WormGPT, un chatbot per hacker liberamente disponibile su vari siti di hacking. Creato con l’intento di facilitare gli “attacchi di compromissione delle e-mail”, WormGPT può essere utilizzato per ideare campagne di e-mail personalizzate altamente convincenti, mirate ai dipendenti di organizzazioni commerciali, governative o no-profit.

WormGPT si colloca come alternativa alle IA consumer come Bard e ChatGPT, utilizzando un proprio modello linguistico proprietario. Senza limiti etici, WormGPT è descritto dal suo creatore come “il più grande nemico del famoso ChatGPT”, un software capace di facilitare varie attività illegali.

Nonostante WormGPT sia posizionato come un malware specialistico, altri strumenti più tradizionali basati sull’intelligenza artificiale possono essere altrettanto dannosi. Bard, il chatbot di Google ora disponibile in Italia, è un esempio emblematico. Secondo Check Point Research, gli hacker hanno già iniziato a sfruttare l’IA di Bard per generare contenuti dannosi, sfruttando la facilità con cui si può aggirare il suo sistema di vincoli etici, rispetto ad esempio a quelli di ChatGPT.

La preoccupazione cresce ulteriormente con la possibilità di “corrompere” modelli linguistici di grandi dimensioni. I ricercatori di Mithril Security hanno dimostrato come modificare un modello linguistico open-source, chiamato GPT-J-6B, trasformandolo in uno strumento specializzato nella disinformazione. Questo modello, ribattezzato PoisonGPT, è stato poi reso disponibile su un repository pubblico, esponendo un’intera catena di fornitura di LLM (Language Model) al rischio di avvelenamento.

Questi sviluppi sono allarmanti. L’uso distorto dell’IA per finalità malevole mette in risalto la necessità di robusti protocolli di sicurezza, normative chiare e sensibilizzazione pubblica. Con la rapida evoluzione dell’intelligenza artificiale, è fondamentale che le organizzazioni di sicurezza e i legislatori mantengano il passo con queste nuove minacce, garantendo al contempo che le opportunità offerte dalla GAI non siano soffocate da un clima di paura e diffidenza. Il settore della cybersecurity si trova di fronte a una nuova sfida, e la sua risposta determinerà in gran parte il futuro dell’intelligenza artificiale.

Articolo precedenteOnePlus Nord 3: patch di sicurezza di luglio 2023 e ottimizzazioni
Articolo successivoASUS lancia la GPU ProArt RTX 4060 Ti con 16 GB di VRAM