Il crescente utilizzo dell’intelligenza artificiale generative nei circuiti illegali del dark web complica la lotta contro l’abuso sui minori.

L’Intelligenza Artificiale (IA) è in continua evoluzione, che sta rivoluzionando diversi ambiti del mondo reale. Tuttavia, le notevoli potenzialità di questa tecnologia possono essere sfruttate anche per scopi malvagi. Secondo quanto riportato dal Washington Post, infatti, il progresso straordinariamente rapido delle IA generative sta causando problemi nel delicato campo delle indagini sulla pedopornografia.

Nei forum del dark web dedicati alla pedofilia, si sta assistendo ad un aumento di contenuti generati proprio da queste IA, con rappresentazioni di minori in situazioni sessuali estratte da materiali preesistenti. A segnalare questa preoccupante tendenza è Thorn, un’organizzazione no-profit impegnata nella protezione dei minori, che ha evidenziato come ci siano anche materiali che replicano le caratteristiche di vittime già note.

“L’identificazione delle vittime è già un ago in un pagliaio, quando la polizia cerca di trovare un bambino in pericolo”, ha dichiarato Rebecca Portnoff, direttore della scienza dei dati di Thorn. “La facilità di utilizzo di questi strumenti è un cambiamento significativo, così come il realismo. Rende tutto più impegnativo”.

Gli strumenti di sicurezza per i minori, in grado di bloccare il caricamento di immagini già segnalate sulle piattaforme, si rivelano impotenti di fronte alle nuove immagini generate dall’intelligenza artificiale. Questa circostanza complica ulteriormente il lavoro degli investigatori, che vedono moltiplicarsi i contenuti da analizzare e identificare.

Nonostante ciò, alcuni utenti e analisti legali ritengono che questi contenuti generati da IA non siano illegali, in quanto non coinvolgerebbero bambini reali. Ma il Dipartimento di Giustizia degli Stati Uniti sostiene il contrario, affermando che le immagini create da IA che sessualizzano minori violano le leggi federali sulla protezione dei minori.

Questa situazione rappresenta un punto critico nello sviluppo e nell’uso dell’intelligenza artificiale. Se da un lato la tecnologia offre nuove opportunità e progresso, dall’altro può rappresentare un’arma nelle mani dei criminali. Questa sfida rende più urgente la necessità di un quadro normativo e di sicurezza adeguato, che garantisca l’uso etico e sicuro dell’intelligenza artificiale, proteggendo i soggetti più vulnerabili.

Il caso dell’uso delle IA generative nel mondo della pedopornografia mette in luce un dilemma morale ed etico di grande portata. Evidenzia la necessità di un impegno comune da parte di governi, legislatori, esperti di sicurezza e società civile per far fronte a questa minaccia emergente, in un contesto in cui la tecnologia avanzata rischia di essere utilizzata per alimentare la criminalità e la sofferenza.

Articolo precedenteMac Pro 2023: iFixit svela l’inaccessibilità alle modifiche
Articolo successivoApple Podcasts ottiene più filtri di ricerca per categoria e lingua