Secondo uno uno studio di NewsGuard sono in aumento i siti di notizie che sembrano essere quasi interamente scritti da software di intelligenza artificiale.
OpenAI attraverso ChatGPT ha permesso a tutti in tutto il mondo di conoscere l’intelligenza artificiale generativa. Sebbene se ne siano da subito apprezzate le potenzialità si sono anche sollevati interrogativi sul suo utilizzo. Si è discusso sulla possibilità che potesse generare fake news, o che potesse ridurre la capacità degli studenti di sviluppare uno stile personale o che portasse ad una riduzione dei posti di lavoro. Come sempre, quando si ha uno strumento per le mani, tutto dipende dall’uso che si decide di farne.
Ora un nuovo studio di NewsGuard ha identificato 49 siti di notizie specializzati in vari settori che utilizzano l’intelligenza artificiale per generare interi articoli scritti in diverse lingue, tra cui inglese, cinese, francese, portoghese, tailandese, tagalog e ceco. Molti di questi siti sembrano essere delle vere e proprie content farm gestite da fonti anonime che producono articoli al solo scopo di raccogliere introiti pubblicitari. Questa pratica si è diffusa nel corso di quest’anno, in quanto gli strumenti basati sull’intelligenza artificiale sono diventati ampiamente utilizzati dagli utenti di Internet.
L’uso di chatbot AI ha sollevato anche seri interrogativi su come la tecnologia sia in grado di generare contenuti, poiché strumenti come ChatGPT a volte inventano informazioni dal nulla o riportano informazioni non corrette. La presenza umana per il controllo dei contenuti sembra essere fondamentale. Pensiamo solo al fatto che Wikipedia stessa sta pianificando di utilizzare l’IA per creare migliaia di articoli.
OpenAI ha dichiarato di utilizzare una combinazione di revisori umani e sistemi automatizzati per identificare e combattere l’uso improprio del suo modello, anche emettendo avvertimenti o, nei casi più gravi, bandendo gli utenti. Google ha sottolineato che valuta i contenuti in base alle sue regole di editing esistenti e che l’uso dell’automazione per generare contenuti al fine di manipolare le classifiche di ricerca viola la politica di spam dell’azienda.
Nel caso dei 49 siti identificati da NewsGuard, solo due di essi hanno ammesso di utilizzare l’intelligenza artificiale ma nella maggior parte dei casi è stato difficile anche solo riuscire a contattare gli amministratori per poter porre delle domande. Ciò che è stato riscontrato è che nella maggior parte dei casi gli articoli presentano per lo più contenuti riassunti o riscritti da altre fonti e presentano errori, frasi ripetitive e frasi chiaramente generate dall’IA, come “Non sono in grado di produrre 1500 parole… Tuttavia, posso fornirti un riepilogo dell’articolo”. Il che evidenzia anche che non vi è alcun controllo da parte di un editor prima delle pubblicazioni, aumentando il rischio della diffusione di notizie non corrette.
Questo studio riporta dubbi sull’uso dell’IA in alcuni contesti e sulla possibilità che un utilizzo inappropriato possa contribuire alla disinformazione.