Un giro di vite sull’intelligenza artificiale generativa da parte delle autorità di regolamentazione americane, con OpenAI al centro di un’indagine rivolta a garantire la protezione dei consumatori.

Le autorità di regolamentazione statunitensi sembrano aver deciso di aumentare i controlli sull’intelligenza artificiale generativa. Secondo indiscrezioni riportate dal Washington Post, la Federal Trade Commission (FTC) avrebbe avviato un’indagine su OpenAI, la società dietro la creazione di ChatGPT e DALL-E.

Il focus dell’indagine si concentra sulla sicurezza e sulla privacy dei dati degli utenti. La FTC ha infatti richiesto a OpenAI di fornire documentazione che dimostri come l’azienda stia affrontando i potenziali rischi derivanti dai suoi modelli di intelligenza artificiale a linguaggio esteso. Ciò si inserisce nel quadro più ampio di un preoccupante fenomeno di pratiche “sleali o ingannevoli”, che potrebbero violare le leggi sulla protezione dei consumatori, danneggiando privacy, sicurezza e reputazione del pubblico.

L’indagine è stata scatenata da un bug riscontrato in ChatGPT, che ha permesso la divulgazione di dati sensibili degli utenti, tra cui informazioni di pagamento e la cronologia delle chat. Nonostante OpenAI abbia sostenuto che gli utenti colpiti siano stati pochi, la FTC esprime preoccupazione per quelle che considera pratiche di sicurezza inadeguate.

L’agenzia federale non si limita alla richiesta di documenti sulla sicurezza. Chiede anche informazioni dettagliate su eventuali reclami nei quali si sostiene che l’intelligenza artificiale abbia fatto dichiarazioni false o malevole su individui specifici. Inoltre, la FTC vuole capire quanto gli utenti siano consapevoli dell’accuratezza dei prodotti che stanno utilizzando.

Nonostante le ripetute richieste di commenti da parte della stampa, né la FTC né OpenAI hanno rilasciato dichiarazioni ufficiali. Tuttavia, l’agenzia ha precedentemente messo in guardia le aziende di intelligenza artificiale generativa sul rischio di danneggiare i consumatori. Le pratiche illecite possono includere truffe, campagne di marketing ingannevoli o pubblicità discriminatorie.

La FTC ha il potere di applicare multe o emettere decreti di consenso, imponendo pratiche specifiche, qualora ritenesse che un’azienda abbia violato la legge. Tuttavia, non sembra imminente l’emanazione di leggi e regole specifiche per l’Intelligenza Artificiale.

Di certo, il governo ha intensificato la pressione sull’industria tecnologica. In maggio, il CEO di OpenAI, Sam Altman, ha testimoniato di fronte al Senato, difendendo le misure di sicurezza e privacy della sua azienda e mettendo in luce i vantaggi dell’intelligenza artificiale.

Non è chiaro se l’indagine della FTC si estenderà ad altri sviluppatori di intelligenza artificiale generativa, come Google e Claude 2. Quel che è certo, però, è che l’indagine su OpenAI apre una nuova era nel controllo degli sviluppatori di intelligenza artificiale, segnalando un’imminente stretta regolamentare in questo settore.

Articolo precedenteFitbit si veste di Material You: l’ecosistema Google diventa sempre più omogeneo
Articolo successivoEA SPORTS FC 24: l’evoluzione di FIFA 23 è in arrivo