Stati Uniti e Regno Unito hanno siglato una partnership allo scopo di valutare i rischi e garantire la sicurezza dei modelli di IA avanzati.

Inutile dirlo, l’IA è un tema centrale dell’ultimo anno ed è prevedibile che resterĂ  tale per molto tempo dato i continui sviluppi. OpenAI, Google e altre aziende continuano a migliorare le loro tecnologie di IA generativa e a rilasciare modelli linguistici di grandi dimensioni sempre piĂ¹ avanzati. Al di lĂ  delle potenzialitĂ  di questa tecnologia, si discute in tutto il mondo da tempo anche dei rischi e della sicurezza di questi modelli, e in quest’ottica Regno Unito e Stati Uniti hanno firmato un accordo. AI Safety Institute del Regno Unito e la sua controparte statunitense, annunciata dal vicepresidente Kamala Harris ma non ancora operativa, svilupperanno suite di test per valutare i rischi e garantire la sicurezza dei “modelli di intelligenza artificiale piĂ¹ avanzati”.

La partnership prevede la condivisione di conoscenze tecniche, informazioni e se necessario anche di personale. Uno degli obiettivi iniziali sembra essere l’esecuzione di un test congiunto su un modello accessibile al pubblico. Inoltre si avverte la necessitĂ  di agire in tempi brevi. Il ministro britannico Michelle Donelan ha dichiarato al Financial Times che “bisogna agire in fretta” perchĂ© si prevede che nel corso del prossimo anno uscirĂ  una nuova generazione di modelli di intelligenza artificiale che potrebbero “cambiare completamente le carte in tavola“.

Stati Uniti e Regno Unito intendono collaborare con altri Paesi in futuro, consapevoli dell’importanza di affrontare il tema della sicurezza sia per la societĂ  che per la sicurezza nazionale. Mentre questa partnership si concentra su test e valutazioni, i governi di tutto il mondo stanno lavorando per regolamentare gli strumenti IA. A tal proposito ricordiamo che il Parlamento europeo ha approvato l’AI Act, un’ampia legislazione per regolamentare l’intelligenza artificiale e cercare di stabilire un equilibrio tra l’innovazione, la sicurezza e la protezione dei diritti fondamentali dei cittadini che prevede, fra le altre cose, che i deepfake e altre immagini, video e audio generati dall’IA debbano essere etichettati come tali.

Articolo precedenteSnapdragon X Elite: benchmark in rialzo, ma c’è da fidarsi?
Articolo successivorealme C65 ufficiale in Vietnam con batteria da 5000 mAh
Carolina Napolano
La tecnologia, roba da donne: ecco la blogger per promuovere il lato rosa della tecnologia.