Un’analisi approfondita di Google Bard mette in luce le restrizioni meno rigorose rispetto a ChatGPT e le possibili implicazioni nella sicurezza informatica.

La rivoluzione dell’intelligenza artificiale generativa ha portato cambiamenti significativi aprendo le porte a una nuova era di creazione di contenuti sofisticati da parte delle macchine. L’IA generativa, un sottoinsieme di modelli e algoritmi di intelligenza artificiale, ha la capacità di generare autonomamente testi, immagini, musica e video che imitano le creazioni umane ed ha suscitato grande interesse, poiché offre una vasta gamma di possibilità creative, dall’assistenza agli artisti e ai designer fino al miglioramento della produttività in molti settori.

Tuttavia, insieme alle sue numerose applicazioni positive, la proliferazione dell’IA generativa ha sollevato preoccupazioni etiche, in particolare riguardo all’uso illecito di questa potente tecnologia. I cybercriminali hanno iniziato a sfruttare l’IA generativa per creare contenuti pericolosi, come evidenziato da precedenti studi.

Recentemente, i ricercatori di Check Point Research hanno focalizzato la loro attenzione sulla piattaforma di Intelligenza Artificiale di Google chiamata Bard. Basandosi sulla tecnologia LaMDA, Bard è stata descritta da Google come un esperimento che permette di collaborare con l’IA generativa, offrendo supporto creativo e aiuto nella gestione di diverse attività, dalla pianificazione di un evento alla risoluzione di dilemmi decisionali complessi.

Nell’ambito di questa analisi, i ricercatori si sono posti due obiettivi principali. In primo luogo, hanno cercato di verificare se fosse possibile utilizzare Bard per scopi illeciti, come la creazione di messaggi di phishing, malware o ransomware. In secondo luogo, hanno confrontato le caratteristiche di Google Bard con quelle di ChatGPT, concentrandosi sulla capacità di generare contenuti illeciti.

Il rapporto di Check Point Research ha rivelato alcune preoccupazioni significative. Durante i test, i ricercatori sono riusciti a creare diversi tipi di contenuti illeciti utilizzando Google Bard. Tra questi, sono state generate email di phishing convincenti, malware per keylogging e persino il codice base per un ransomware.

Un elemento chiave emerso dall’analisi è la differenza di restrizioni tra ChatGPT e Bard. Mentre ChatGPT ha dimostrato restrizioni più rigide e ha respinto alcune richieste dirette di creare contenuti illeciti, Bard ha mostrato una maggiore permissività. Bard ha prodotto un messaggio di phishing ben scritto in risposta a una richiesta specifica, ha fornito il codice per un keylogger generico e ha persino fornito uno script per un ransomware, indicando le azioni svolte da questi software dannosi.

Queste osservazioni evidenziano la necessità per Google Bard di implementare restrizioni più rigorose per prevenire abusi nel campo della sicurezza informatica. Attualmente, le restrizioni di Bard risultano relativamente elementari, così come era emerso inizialmente con ChatGPT, consentendo un potenziale sfruttamento malevolo della tecnologia.

È fondamentale che Google continui a migliorare e a sviluppare la piattaforma Bard, adottando misure di sicurezza più rigorose per prevenire il possibile abuso dell’IA generativa. La fase attuale rappresenta una transizione, e si spera che in futuro Bard possa offrire limitazioni e vincoli di sicurezza più adeguati.

Articolo precedenteChrome introduce una funzione di controllo granulare sui cookie di terze
Articolo successivoWhatsApp: problemi di sicurezza con la disattivazione dell’account
Carolina Napolano
La tecnologia, roba da donne: ecco la blogger per promuovere il lato rosa della tecnologia.