I ricercatori stanno sfruttando l’intelligenza artificiale e i riflessi della luce negli occhi umani per tentare di ricostruire ambienti 3D. Nonostante le sfide, il lavoro potrebbe segnare una pietra miliare importante nell’ambito della ricostruzione di scene 3D.

Ricercatori dell’Università del Maryland hanno compiuto un passo avanti potenzialmente rivoluzionario nel campo dell’intelligenza artificiale, trasformando i riflessi degli occhi in scene 3D distinguibili. Il team si è affidato alla tecnologia Neural Radiance Fields (NeRF), capace di ricreare ambienti da immagini 2D. Nonostante sia ancora lontano da possibili applicazioni pratiche, il loro studio apre nuovi orizzonti tecnologici entusiasmanti.

L’obiettivo della ricerca è stato utilizzare i riflessi di luce catturati negli occhi umani per tentare di ricostruire l’ambiente circostante. Questo processo complesso ha richiesto l’uso di immagini ad alta risoluzione scattate da un punto fisso, con un individuo in movimento posizionato di fronte alla fotocamera. Successivamente, i riflessi sono stati ingranditi, isolati e analizzati per calcolare la posizione degli occhi nelle foto.

I risultati preliminari dell’esperimento mostrano una ricostruzione di ambiente abbastanza distinguibile in un setting controllato. Tuttavia, la modellazione dei riflessi oculari in video musicali di Miley Cyrus e Lady Gaga ha rivelato le limitazioni attuali della tecnologia, producendo solo macchie vaghe che difficilmente possono essere interpretate come oggetti reali.

Nonostante le difficoltà, il team è riuscito a superare significativi ostacoli. Ad esempio, hanno affrontato il “rumore intrinseco” introdotto dalla cornea, che rende difficile separare la luce riflessa dalle complesse texture dell’iride. Utilizzando l’ottimizzazione della posa della cornea e la decomposizione della texture dell’iride, i ricercatori sono riusciti a mitigare questo problema. Inoltre, hanno implementato la perdita di regolarizzazione radiale della texture, una tecnica di apprendimento automatico che simula texture più morbide rispetto al materiale di partenza, per migliorare ulteriormente lo scenario riflesso.

Tuttavia, permangono ostacoli significativi. “I nostri attuali risultati nel mondo reale provengono da una ‘configurazione di laboratorio’, come l’acquisizione con zoom del volto di una persona, l’illuminazione della scena e il movimento intenzionale della persona”, osservano gli autori. Il passaggio a impostazioni più libere, come le videoconferenze, presenta sfide dovute alla minore risoluzione del sensore, alla gamma dinamica e alla sfocatura del movimento.

Nonostante queste sfide, il team è ottimista riguardo al potenziale della loro ricerca. “Con questo lavoro, speriamo di ispirare future esplorazioni che sfruttino segnali visivi inaspettati e accidentali per rivelare informazioni sul mondo che ci circonda”, dichiarano. Nonostante le versioni più mature di questo lavoro possano sollevare questioni di privacy, per ora possiamo stare tranquilli sapendo che la versione attuale è in grado di distinguere solo vagamente una bambola Kirby anche nelle condizioni più ideali.

Il futuro è carico di possibilità, con gli occhi umani che potrebbero diventare un nuovo strumento per la ricostruzione di ambienti 3D. Solo il tempo ci dirà quanto questo studio potrà effettivamente influenzare e stimolare i futuri progressi tecnologici.

Articolo precedentePixel 7a, il display non ama l’esposizione al sole?
Articolo successivoRedmi Pad 2 si mostra su Geekbench con qualche dubbio