OpenAI, la società che ha sviluppato ChatGPT, aggiorna le sue linee guida sull’uso consentito, eliminando il riferimento esplicito all’uso “militare e bellico”, un cambiamento importante in un periodo di crescente interesse militare per l’intelligenza artificiale.

OpenAI, la società creatrice di ChatGPT, ha rimosso il divieto esplicito sull’uso della sua tecnologia per scopi “militari e bellici” dalle sue politiche di utilizzo. Questa modifica, segnalata per la prima volta da The Intercept il 10 gennaio, è stata descritta come un tentativo di rendere le politiche dell’azienda “più chiare e con indicazioni più specifiche”. Nonostante il cambiamento, OpenAI continua a vietare l’uso dei suoi modelli linguistici di grandi dimensioni (LLM) per attività che potrebbero causare danni, compreso lo sviluppo o l’uso di armi.

Il cambiamento arriva in un periodo di interesse crescente da parte delle agenzie militari globali nell’uso dell’intelligenza artificiale. Sarah Myers West, del AI Now Institute, ha espresso preoccupazione per questo cambio di politica, specialmente in relazione all’uso dei sistemi di IA nel prendere di mira i civili. Prima della modifica, OpenAI non poteva collaborare con enti governativi come il Dipartimento della Difesa degli Stati Uniti a causa della menzione esplicita di “militari e guerra” nelle sue politiche. Attualmente, OpenAI non ha prodotti che possono causare direttamente morte o danni fisici, ma la sua tecnologia potrebbe essere utilizzata in contesti bellici come la scrittura di codici o l’elaborazione di ordini di approvvigionamento.

In risposta ai cambiamenti nella sua politica, Niko Felix, portavoce di OpenAI, ha spiegato che la società mira a stabilire principi universali semplici e applicabili in diversi contesti globali. Felix ha sottolineato che il principio generale di “Non danneggiare gli altri” è una linea guida chiara per OpenAI, che ha espressamente menzionato il divieto dell’uso dei suoi servizi per sviluppare o utilizzare armi e per causare danni alle persone. Tuttavia, Felix non ha specificato se il divieto di danneggiare include tutti gli usi militari al di fuori dello sviluppo di armi.

Questi cambiamenti nella politica di OpenAI pongono domande importanti sul ruolo e le responsabilità delle aziende tecnologiche nel regolamentare l’uso delle loro innovazioni in ambito militare. Sebbene OpenAI, nota per il suo chatbot ChatGPT, continui a enfatizzare il principio di non nuocere, la rimozione della clausola esplicita sui fini militari e di guerra.

Articolo precedenteGoogle: più privacy per gli utenti UE, ma con meno funzioni
Articolo successivoGmail per Android migliora gestione abbonamenti e sicurezza
Team CEOTECH
La tecnologia dovrebbe arricchire la vita delle persone oltre a tutelare il pianeta.