Nonostante il ritardo nell’adozione delle tecnologie di intelligenza artificiale generativa, Apple annuncia MGIE, un avanzato modello di IA capace di modificare immagini tramite comandi in linguaggio naturale, promettendo di introdurre questa innovazione con iOS 18.

Apple, pur trovandosi in una fase di recupero rispetto a giganti dell’IA come ChatGPT di OpenAI e Gemini di Google, non si è tirata indietro nella corsa all’innovazione tecnologica. L’azienda sta evolvendo verso il futuro dell’editing di immagini, presentando un nuovo modello di intelligenza artificiale chiamato “MGIE” (MLLM-Guided Image Editing). Questo modello multimodale di grandi dimensioni rappresenta un balzo in avanti nella capacità di interpretare ed eseguire i comandi degli utenti a livello di pixel, promettendo una rivoluzione nell’editing di immagini simile a Photoshop tramite semplici istruzioni in linguaggio naturale.

La tecnologia, che si prevede verrà introdotta durante l’evento WWDC 2024 a giugno, consente agli utenti di manipolare e modificare immagini in modi fino ad ora impensabili per un dispositivo mobile. Tra le funzionalità evidenziate, MGIE permetterà la regolazione di elementi come luminosità, nitidezza, contrasto e l’aggiunta di effetti artistici. Ancora più impressionante è la capacità di modificare localmente la forma, il colore, le dimensioni e la struttura di un soggetto nella foto, insieme alla possibilità di cambiare lo sfondo dell’immagine su richiesta.

Un esempio della capacità intuitiva del modello MGIE è la sua comprensione del contesto e del ragionamento comune. La richiesta di rendere “più sana” l’immagine di una pizza verrà interpretata con l’aggiunta automatica di verdure all’immagine, dimostrando una comprensione delle associazioni tra salute e alimentazione.

Oltre a queste innovazioni, MGIE può eseguire editing globale manipolando l’illuminazione e il contrasto di un’intera immagine, così come eliminare oggetti dallo sfondo su specifica richiesta dell’utente. Questo modello di IA, sviluppato in collaborazione con i ricercatori dell’Università della California, è stato presentato alla International Conference on Learning Representations (ICLR) 2024, affermandosi come una delle innovazioni più promettenti nel campo dell’intelligenza artificiale applicata all’editing di immagini.

Per gli sviluppatori e gli appassionati interessati a esplorare il modello di intelligenza artificiale, il codice e i dati con i modelli pre-addestrati sono già disponibili su GitHub. Questo annuncio riafferma l’impegno di Apple nello sviluppo dell’IA e apre anche la strada a una serie di funzionalità AI che verranno annunciate nel corso dell’anno, inclusi potenziali miglioramenti a Siri in iOS 18.

Articolo precedenteBluesky: boom di utenti a un giorno dal lancio
Articolo successivoApple: iOS 17.3.1 in arrivo a febbraio, iOS 17.4 per marzo