In risposta all’appello dell’amministrazione Biden per uno sviluppo responsabile dell’intelligenza artificiale (IA), i giganti della tecnologia come Microsoft, Google e OpenAI si sono impegnati a adottare misure di sicurezza essenziali per la loro tecnologia AI.

I leader dell’intelligenza artificiale (IA) negli Stati Uniti, tra cui Microsoft, Google e OpenAI, hanno promesso di adottare importanti misure di sicurezza per le loro tecnologie di IA. Questo impegno arriva in risposta alla richiesta dell’amministrazione Biden per uno sviluppo responsabile dell’IA, con un forte accento sulla necessità di assicurare che la tecnologia sia utilizzata per il bene della società senza compromettere la sicurezza, i diritti e i valori democratici.

La discussione su questo tema si è concentrata sulla responsabilità delle aziende che sviluppano tecnologia IA. Il vicepresidente Kamala Harris e il presidente Joe Biden hanno dialogato con i leader dell’industria dell’IA sull’importanza di questa questione.

Secondo una bozza di documento visionata da Bloomberg, le aziende di tecnologia dovrebbero aderire a otto misure fondamentali per garantire la sicurezza, la protezione e la responsabilità sociale nel settore dell’IA. Tra queste misure figura la possibilità di far testare da esperti indipendenti i modelli di IA per individuare comportamenti potenzialmente scorretti, l’investimento in sicurezza informatica, e l’incoraggiamento a terzi nel rilevare vulnerabilità di sicurezza.

Per rispondere ai rischi sociali, come pregiudizi e usi impropri, le aziende si impegneranno a studiare approfonditamente le implicazioni del loro lavoro. Inoltre, pianificano di condividere informazioni su fiducia e sicurezza con altre aziende e con il governo, favorendo un approccio collaborativo allo sviluppo responsabile dell’IA.

Le aziende prevedono anche di marchiare i contenuti audio e visivi generati da IA per prevenire usi impropri e la diffusione di disinformazione. Inoltre, si impegnano ad utilizzare tecnologie di punta, note come “modelli di frontiera”, per affrontare sfide rilevanti per la società.

La natura volontaria di queste misure mette in luce la sfida che i legislatori devono affrontare per tenere il passo con lo sviluppo frenetico dell’intelligenza artificiale. Il Congresso ha presentato diverse proposte di legge per regolamentare l’IA, con l’obiettivo di prevenire l’uso improprio della Sezione 230 per evitare la responsabilità per i contenuti dannosi generati da IA e per richiedere trasparenza nelle pubblicità politiche che utilizzano l’IA generativa.

Questo sforzo di collaborazione tra il governo e i giganti dell’industria tecnologica assume una rilevanza cruciale nel contesto dell’avanzamento dell’IA, e dimostra l’urgenza di plasmare un futuro dell’IA che sia vantaggioso per l’umanità.

Articolo precedenteChrome: dipendente Apple scopre bug zero-day durante una gara di hacking
Articolo successivoStellantis svela IBIS, la batteria integrata per l’industria automobilistica e oltre