Con 499 voti favorevoli, l’Europa si avvia a divenire il primo continente a stabilire una normativa sulla regolamentazione dell’intelligenza artificiale generativa, con particolare attenzione ai diritti umani, alla privacy e alla sicurezza.

Strasburgo, 14 giugno – Oggi il Parlamento Europeo ha preso una decisione storica votando a favore della “posizione negoziale sulla legge sull’Intelligenza Artificiale” dell’Unione Europea. Con 499 voti a favore, 28 contrari e 93 astensioni, l’Europa si posiziona in prima linea nella regolamentazione dell’Intelligenza artificiale (IA). I negoziati con il Consiglio e i colloqui con i governi degli Stati membri dell’UE inizieranno oggi stesso per definire il testo definitivo della legge.

La proposta di legge mira a garantire che l’IA sia sviluppata e utilizzata in conformità con i diritti e i valori europei, tra cui l’importanza della supervisione umana, la sicurezza, la privacy, la trasparenza, l’eliminazione della discriminazione e il benessere sociale e ambientale.

Gli obblighi degli operatori e dei fornitori di IA saranno calibrati in base al livello di rischio associato all’uso della tecnologia. Ciò significa che saranno proibite tutte le soluzioni di IA classificate come rischio inaccettabile. I legislatori hanno categorizzato come ad alto rischio i sistemi di IA che possono causare “danni significativi alla salute, alla sicurezza, ai diritti fondamentali delle persone o all’ambiente”, così come quelli utilizzati per influenzare il risultato delle elezioni e i sistemi di raccomandazione utilizzati dai social media con oltre 45 milioni di utenti.

Rispetto alle bozze precedenti, i membri del Parlamento Europeo hanno deciso di espandere i divieti a un’ampia gamma di applicazioni di IA, tra cui i sistemi di identificazione biometrica remota in tempo reale e a posteriori in spazi pubblici, sistemi di categorizzazione biometrica basati su genere, razza, etnia, cittadinanza, religione e orientamento politico, sistemi di polizia predittiva, sistemi di riconoscimento delle emozioni, e l’estrazione non mirata di dati biometrici da internet o da registrazioni video di telecamere a circuito chiuso.

Inoltre, i sistemi di intelligenza artificiale generativa, come il noto ChatGPT, dovranno rispettare specifici requisiti di trasparenza, il che significa che sarà obbligatorio dichiarare quando un contenuto è stato generato da un’IA. Particolare attenzione è dedicata anche alla questione dei deepfake, per cui si prevede l’implementazione di strumenti capaci di distinguere tra immagini reali e manipolate.

La nuova legislazione promuove inoltre i cosiddetti “spazi di sperimentazione normativa” o “ambienti di vita reale” creati dalle autorità pubbliche per testare l’IA prima della sua implementazione. Queste esenzioni, particolarmente preziose per le attività di ricerca, rappresentano un’importante risorsa per sostenere l’innovazione delle piccole e medie imprese nel campo dell’IA.

La decisione del Parlamento segna un passo significativo verso una gestione responsabile e centrata sull’uomo dell’IA in Europa, puntando a garantire che le tecnologie emergenti siano utilizzate in modo etico e sicuro. Questa normativa può servire da modello per altri Paesi e regioni nel mondo, evidenziando l’importanza di regolamentare l’IA per proteggere i diritti umani, la privacy e la sicurezza.

Articolo precedenteRedmi Pad 2, fuga di notizie conferma Snapdragon 680 e altro
Articolo successivoSideloading: un’evoluzione software imminente di Apple?
Team CEOTECH
La tecnologia dovrebbe arricchire la vita delle persone oltre a tutelare il pianeta.