La nascita di WormGPT e il rischio della corruzione dei modelli linguistici segnano un pericoloso aumento della sofisticazione dei cyber-attacchi.

L’intelligenza artificiale generativa (GAI) ha dimostrato una straordinaria versatilitĂ  e utilitĂ , trovando applicazione in un’ampia gamma di settori. Tuttavia, questa stessa versatilitĂ  ha aperto nuove possibilitĂ  per l’uso improprio, in particolare da parte dei cybercriminali. Le campagne di phishing, infatti, diventano sempre piĂ¹ sofisticate, alimentate dalla nuova generazione di strumenti basati sull’IA.

Un esempio recente è WormGPT, un chatbot per hacker liberamente disponibile su vari siti di hacking. Creato con l’intento di facilitare gli “attacchi di compromissione delle e-mail”, WormGPT puĂ² essere utilizzato per ideare campagne di e-mail personalizzate altamente convincenti, mirate ai dipendenti di organizzazioni commerciali, governative o no-profit.

WormGPT si colloca come alternativa alle IA consumer come Bard e ChatGPT, utilizzando un proprio modello linguistico proprietario. Senza limiti etici, WormGPT è descritto dal suo creatore come “il piĂ¹ grande nemico del famoso ChatGPT”, un software capace di facilitare varie attivitĂ  illegali.

Nonostante WormGPT sia posizionato come un malware specialistico, altri strumenti piĂ¹ tradizionali basati sull’intelligenza artificiale possono essere altrettanto dannosi. Bard, il chatbot di Google ora disponibile in Italia, è un esempio emblematico. Secondo Check Point Research, gli hacker hanno giĂ  iniziato a sfruttare l’IA di Bard per generare contenuti dannosi, sfruttando la facilitĂ  con cui si puĂ² aggirare il suo sistema di vincoli etici, rispetto ad esempio a quelli di ChatGPT.

La preoccupazione cresce ulteriormente con la possibilitĂ  di “corrompere” modelli linguistici di grandi dimensioni. I ricercatori di Mithril Security hanno dimostrato come modificare un modello linguistico open-source, chiamato GPT-J-6B, trasformandolo in uno strumento specializzato nella disinformazione. Questo modello, ribattezzato PoisonGPT, è stato poi reso disponibile su un repository pubblico, esponendo un’intera catena di fornitura di LLM (Language Model) al rischio di avvelenamento.

Questi sviluppi sono allarmanti. L’uso distorto dell’IA per finalitĂ  malevole mette in risalto la necessitĂ  di robusti protocolli di sicurezza, normative chiare e sensibilizzazione pubblica. Con la rapida evoluzione dell’intelligenza artificiale, è fondamentale che le organizzazioni di sicurezza e i legislatori mantengano il passo con queste nuove minacce, garantendo al contempo che le opportunitĂ  offerte dalla GAI non siano soffocate da un clima di paura e diffidenza. Il settore della cybersecurity si trova di fronte a una nuova sfida, e la sua risposta determinerĂ  in gran parte il futuro dell’intelligenza artificiale.

Articolo precedenteOnePlus Nord 3: patch di sicurezza di luglio 2023 e ottimizzazioni
Articolo successivoASUS lancia la GPU ProArt RTX 4060 Ti con 16 GB di VRAM