Sony Xperia 1 VIII delude con AI Camera Assistant. Il nuovo sensore tele è grande, ma il software appiattisce le immagini e distrugge il contrasto naturale.
La foto su smartphone ha imboccato una strada pericolosa, dove la ricerca della perfezione finisce per cancellare l’estetica stessa dello scatto. Sony ha appena sollevato un polverone mediatico con il debutto del suo Xperia 1 VIII, un telefono che sulla carta vanta un sensore per il teleobiettivo quasi quattro volte più grande rispetto al passato, ma che all’atto pratico sembra voler fare di tutto per nascondere questo vantaggio dietro un’elaborazione AI decisamente discutibile.
Il produttore giapponese ha deciso di puntare tutto su un nuovo sistema software che dovrebbe semplificare la vita. Sony descrive così la novità: “Il nuovo AI Camera Assistant con Xperia Intelligence ti aiuta a dare vita alle tue idee. Ti suggerisce diverse opzioni creative con varie impostazioni per realizzare foto indimenticabili. Grazie anche al nuovo sensore del teleobiettivo, quasi quattro volte più grande rispetto al passato, ogni foto diventerà un ricordo che vorrai conservare e condividere”. Le immagini condivise dal brand mostrano però una realtà differente. Le immagini elaborate da AI Camera Assistant appaiono piatte, prive di quel contrasto naturale che dovrebbe essere il punto di forza di un sensore di grandi dimensioni. Invece di valorizzare la profondità di campo e le sfumature cromatiche, l’algoritmo schiarisce le ombre in modo aggressivo e riduce la vivacità dei colori, producendo scatti che molti critici e utenti sui social hanno già bocciato senza appello.

Non si tratta di un incidente isolato, ma di una tendenza che sta colpendo l’intero settore. Il machine learning, che anni fa ha permesso ai piccoli sensori degli smartphone di superare alcuni limiti, oggi viene utilizzato per uniformare ogni elemento dell’inquadratura allo stesso livello di luminosità. Il risultato è un’immagine tecnicamente nitida ma visivamente noiosa. Proprio questa settimana, Google ha fatto una mossa simile introducendo lo strumento di “miglioramento intelligente“ all’interno dell’app Instagram Edits per Android. Anche in questo caso, la direzione intrapresa è quella di eliminare le ombre per rendere il soggetto immediatamente visibile e luminoso. È una scelta che paga nell’immediato, magari su un piccolo schermo mentre si scorre un feed veloce, ma che distrugge la trama e l’atmosfera della foto originale.
Persino i Google Pixel, che per anni sono stati il punto di riferimento per chi cercava foto ricche di contrasto e carattere, hanno iniziato a cedere a questa estetica più piatta. I modelli più recenti delle serie Pixel 10 hanno abbandonato quello stile marcato e vivace che li rendeva unici, preferendo esposizioni più bilanciate ma meno emozionanti. L’implementazione di Sony sembra rappresentare l’apice negativo di questo processo: i dettagli vengono attivamente schiacciati dall’intelligenza artificiale e alterano i colori in modo innaturale. Quando un’azienda possiede la tecnologia per inserire sensori di altissima qualità nei propri telefoni, vederne sprecato il potenziale a causa di una post-elaborazione così invadente lascia più di un dubbio sulle priorità dei dipartimenti di ricerca e sviluppo. Ci stiamo affidando troppo all’AI per decidere cosa sia bello e cosa no, dimenticando che la fotografia è fatta di ombre tanto quanto di luci. Se eliminiamo il contrasto per rendere ogni scatto pronto per un feed veloce, perdiamo la capacità di raccontare la realtà. Sony, Google e altri produttori stanno trasformando i ricordi in immagini innaturali, noiose e prive di quell’anima che solo un’ottica lasciata libera di lavorare può restituire.


















































