Google ha ritirato i progetti di formazione sull’Intelligenza Artificiale (AI) che prevedevano meccanismi di apprendimento automatico per la creazione di deepfake sulla sua piattaforma “Colaboratory”. La modifica sarebbe stata attuata all’inizio di maggio.

Secondo il sito web BleepingComputer, Google non ha preso posizione sulla rimozione dell’accesso ai materiali sui deepfakes dalla sua piattaforma collaborativa, tuttavia si ipotizza che la decisione sia stata adottata per impedire la creazione di video falsi.

Gli sviluppatori che tentano di accedere a deepfake in Google Colab si trovano di fronte a un messaggio di errore che li informa sull’esecuzione di “codice non consentito”. La piattaforma avverte inoltre che l’insistenza potrebbe portare restrizioni future.

Il servizio gratuito ospitato dall’azienda ha consentito agli interessati di utilizzare il linguaggio di programmazione Python direttamente nel browser, oltre a sfruttare diverse risorse informatiche, tra cui le GPU.

Presunto abuso di scopo

Lo scopo dell’iniziativa era incoraggiare lo sviluppo di progetti utilizzando l’intelligenza artificiale (AI). Tuttavia, i rapporti indicano che lo strumento veniva utilizzato per creare video falsi sostituendo i volti e aggiungendo espressioni facciali.

Il risultato di questo strumento è solitamente impressionante per il suo realismo, che ha attirato anche l’uso di malintenzionati. Google vieta inoltre l’uso dell’app in progetti di mining di criptovalute, download di torrent e cracking di password.

Non c’è conferma se i progetti torneranno a Google Colaboratory.

Articolo precedenterealme GT 2 Master Explorer Edition, emergono le specifiche
Articolo successivoOnePlus: OxygenOS 13, deve rimuovere le influenze ColorOS