OpenAI ha rilasciato un nuovo potente modello di intelligenza artificiale per la comprensione di immagini e testi, GPT-4, che l’azienda definisce “l’ultimo passo nel suo impegno per estendere il deep learning”.
Dopo mesi di voci e speculazioni, OpenAI ha finalmente annunciato GPT-4: l’ultimo della sua linea di modelli linguistici IA che alimentano applicazioni come ChatGPT e il nuovo Bing Chat.
Secondo la pagina del prodotto sul sito web di OpenAI, GPT-4 è “più creativo e collaborativo che mai” e “può generare, modificare e iterare con gli utenti su compiti di scrittura creativa e tecnica, come comporre canzoni, scrivere sceneggiature o imparare lo stile di scrittura di un utente”.
GPT-4 include finalmente le immagini inviate dall’utente
Una delle principali differenze tra GPT-4 e GPT-3.5 (il modello che alimenta ChatGPT) è che la nuova versione GPT-4 è in grado di accettare immagini oltre al testo. Ad esempio, se si mostra a GPT-4 un’immagine di uova, farina e latte e si chiede cosa si può fare con questi ingredienti, il modello linguistico capirà l’immagine ed elencherà diverse potenziali ricette.
È ora possibile scansionare relazioni di marketing e di vendita, con tutti i loro grafici e le loro cifre, libri di testo e manuali d’uso, persino screenshot, e ChatGPT si occuperà di riassumere il tutto in un file in una lingua adatta. Un dipendente di OpenAI ha persino dimostrato che è possibile creare un sito web completo partendo da alcune vaghe istruzioni scritte a mano su un foglio bianco.
GPT-4 è più intelligente che mai
Non sorprende che il GPT-4 sia anche molto più intelligente dei modelli precedenti. Secondo il documento di ricerca di OpenAI, GPT-4 ha superato un finto esame di abilitazione con un punteggio simile a quello del 10% dei candidati. In confronto, ChatGPT ha ottenuto un punteggio inferiore al 10%. Il modello linguistico multimodale ha anche ottenuto un punteggio del 99% alle Olimpiadi di Biologia, rispetto al 31% di GPT 3.5.
GPT-4 supera anche ChatGPT con le sue capacità di ragionamento avanzato e può produrre risposte più concise e accurate rispetto a ChatGPT.
GPT-4 non è ancora perfetto
Nonostante questa importante svolta tecnologica, non tutto è ancora perfetto. Sam Altman, CEO di OpenAI, ha avvertito prima della presentazione del GPT-4 che “le persone stanno solo aspettando di essere deluse”. Altman ha anche twittato che il modello è “ancora imperfetto, ancora limitato e sembra ancora più impressionante al primo utilizzo di quanto non lo sia dopo averci trascorso più tempo”.
OpenAI avverte inoltre che i sistemi mantengono molti degli stessi problemi dei modelli linguistici precedenti, tra cui la tendenza a inventare informazioni e la capacità di generare testi violenti e dannosi. Tuttavia, secondo OpenAI, è anche più difficile per GPT-4 sfuggire alle protezioni che ne limitano l’usabilità.
Come provare GPT-4?
OpenAI afferma che il GPT-4 sarà presto disponibile sia per ChatGPT che per l’API. Per accedervi è necessario essere abbonati a ChatGPT Plus, e bisogna sapere che ci sarà anche un limite di utilizzo per giocare con il nuovo modello. L’accesso all’API per il nuovo modello è gestito da una lista d’attesa.
L’API consentirà ai programmatori di integrare l’IA nelle loro applicazioni. OpenAI farà pagare circa 3 centesimi per 750 parole di domande e 6 centesimi per 750 parole di risposte. La buona notizia è che prima o poi sarà possibile provare GPT-4 gratuitamente. “A seconda dei modelli di traffico che osserviamo, potremmo introdurre un nuovo livello di abbonamento per un utilizzo più elevato di GPT-4; speriamo anche di offrire un certo numero di query GPT-4 gratuite, in modo che anche chi non ha un abbonamento possa provarlo”, spiega l’azienda.