Apple si prepara a lanciare un’innovazione significativa per Siri all’evento WWDC 2024, puntando a superare le attuali capacità di ChatGPT 3.5 con l’introduzione di Ajax, un modello di intelligenza artificiale generativa all’avanguardia.

Apple è pronta a presentare un importante evoluzione per Siri, il suo assistente virtuale nativo di iOS, tramite l’integrazione di Ajax, un modello di intelligenza artificiale generativa. Questo sviluppo rappresenta un passo in avanti nel campo dell’assistenza virtuale, puntando a migliorare l’interazione tra l’utente e la tecnologia.

La fonte di queste anticipazioni è il blog coreano Naver con il suo insider yeux1122, il quale prevede che la versione AI generativa di Siri sarà svelata durante la Worldwide Developers Conference (WWDC 2024), un evento di rilievo che si terrà a giugno. Questo annuncio segna un’evoluzione cruciale nell’ecosistema di Apple, posizionando l’azienda come uno dei leader nell’innovazione dell’intelligenza artificiale.

Ajax è descritto come un modello linguistico esteso e viene pubblicizzato come superiore a ChatGPT 3.5. Questa affermazione da sola è indicativa del livello di aspirazioni di Apple nel campo dell’intelligenza artificiale. Inizialmente previsto per un uso interno, Apple ora sembra intenzionata a utilizzare Ajax per migliorare Siri, conferendole capacità di “più personalizzazione e funzioni di conversazione naturale”.

La tecnologia dietro Ajax dovrebbe permettere una gestione efficiente e senza soluzione di continuità tra i diversi dispositivi Apple, offrendo servizi esclusivi, integrazioni con servizi esterni e persino opzioni in abbonamento. Questo ampliamento delle funzionalità di Siri va ben oltre le classiche interazioni vocali, proponendo una gamma di servizi interconnessi e migliorati.

Secondo quanto riportato, Apple sta attualmente lavorando su due fronti: la modellazione del linguaggio e delle immagini. Un team si concentrerebbe sulla generazione di “immagini, video o scene 3D”, mentre l’altro è impegnato nella ricerca sull’intelligenza artificiale multimodale per il riconoscimento e la produzione di immagini o video. Questa doppia focalizzazione suggerisce un approccio olistico all’intelligenza artificiale, abbracciando sia il linguaggio che la componente visiva.

Interessante anche la possibilità che uno di questi modelli linguistici venga impiegato per interagire con i clienti tramite il servizio AppleCare. In parallelo, il team Siri sta lavorando per incorporare questi modelli linguistici al fine di semplificare le complesse integrazioni delle scorciatoie, rendendo l’assistente virtuale più intuitivo e versatile.

Articolo precedenteGoogle Bard: versione a pagamento in arrivo per il chatbot
Articolo successivoSnapdragon XR2+ Gen 2: chip VR/MR più potente debutta al CES 2024