Stati Uniti e Regno Unito hanno siglato una partnership allo scopo di valutare i rischi e garantire la sicurezza dei modelli di IA avanzati.

Inutile dirlo, l’IA è un tema centrale dell’ultimo anno ed è prevedibile che resterà tale per molto tempo dato i continui sviluppi. OpenAI, Google e altre aziende continuano a migliorare le loro tecnologie di IA generativa e a rilasciare modelli linguistici di grandi dimensioni sempre più avanzati. Al di là delle potenzialità di questa tecnologia, si discute in tutto il mondo da tempo anche dei rischi e della sicurezza di questi modelli, e in quest’ottica Regno Unito e Stati Uniti hanno firmato un accordo. AI Safety Institute del Regno Unito e la sua controparte statunitense, annunciata dal vicepresidente Kamala Harris ma non ancora operativa, svilupperanno suite di test per valutare i rischi e garantire la sicurezza dei “modelli di intelligenza artificiale più avanzati”.

La partnership prevede la condivisione di conoscenze tecniche, informazioni e se necessario anche di personale. Uno degli obiettivi iniziali sembra essere l’esecuzione di un test congiunto su un modello accessibile al pubblico. Inoltre si avverte la necessità di agire in tempi brevi. Il ministro britannico Michelle Donelan ha dichiarato al Financial Times che “bisogna agire in fretta” perché si prevede che nel corso del prossimo anno uscirà una nuova generazione di modelli di intelligenza artificiale che potrebbero “cambiare completamente le carte in tavola“.

Stati Uniti e Regno Unito intendono collaborare con altri Paesi in futuro, consapevoli dell’importanza di affrontare il tema della sicurezza sia per la società che per la sicurezza nazionale. Mentre questa partnership si concentra su test e valutazioni, i governi di tutto il mondo stanno lavorando per regolamentare gli strumenti IA. A tal proposito ricordiamo che il Parlamento europeo ha approvato l’AI Act, un’ampia legislazione per regolamentare l’intelligenza artificiale e cercare di stabilire un equilibrio tra l’innovazione, la sicurezza e la protezione dei diritti fondamentali dei cittadini che prevede, fra le altre cose, che i deepfake e altre immagini, video e audio generati dall’IA debbano essere etichettati come tali.

Articolo precedenteSnapdragon X Elite: benchmark in rialzo, ma c’è da fidarsi?
Articolo successivorealme C65 ufficiale in Vietnam con batteria da 5000 mAh
Carolina Napolano
La tecnologia, roba da donne: ecco la blogger per promuovere il lato rosa della tecnologia.

LASCIA UN COMMENTO

Per favore inserisci il tuo commento!
Per favore inserisci il tuo nome qui