Con l’introduzione di SeamlessM4T, Meta apre nuove frontiere nella traduzione AI, offrendo funzionalità avanzate che promettono di rendere le conversazioni multilingue più naturali, spontanee ed espressive.

Nell’agosto di quest’anno, Meta ha presentato il suo modello di traduzione AI multimodale, SeamlessM4T, un passo da gigante nel campo della traduzione automatica. Questo strumento, che supporta quasi 100 lingue per il testo e 36 per il parlato, sta ora vivendo un’evoluzione significativa con l’aggiornamento dell’architettura “v2”. Questo aggiornamento mira a rendere le traduzioni conversazionali non solo più accurate, ma anche più spontanee ed espressive – un elemento chiave per una conversazione autentica tra diverse lingue.

Una delle due nuove funzionalità introdotte da Meta è “SeamlessExpressive”. Come suggerisce il nome, questa funzione trasferisce le espressioni dell’oratore nel discorso tradotto, includendo aspetti come intonazione, volume, tono emotivo (eccitazione, tristezza o sussurri), ritmo del discorso e pause. Fino ad oggi, le traduzioni automatizzate avevano una qualità spesso robotica, quindi questa innovazione rappresenta una svolta significativa sia nella vita quotidiana che nella produzione di contenuti multilingue. Attualmente, le lingue supportate includono l’inglese, lo spagnolo, il tedesco, il francese, l’italiano e il cinese, anche se l’italiano e il cinese sono temporaneamente assenti nella pagina demo.

La seconda funzionalità introdotta da Meta è “SeamlessStreaming”. Questa funzione permette di iniziare a tradurre un discorso mentre l’oratore sta ancora parlando, riducendo così i tempi di attesa per la traduzione. Sebbene la latenza sia ancora breve, inferiore ai due secondi, questa innovazione elimina la necessità di aspettare la fine di una frase per ricevere una traduzione. Meta ha affrontato la sfida delle differenze strutturali tra le lingue sviluppando un algoritmo che analizza input audio parziali, per decidere se esiste un contesto sufficiente per iniziare la traduzione o se è necessario continuare ad ascoltare.

Quest’ultimo sviluppo nella suite di “Seamless Communication” di Meta sembra essere impressionante, superando gli strumenti di interpretazione mobile offerti da concorrenti come Google e Samsung. Non è ancora chiaro quando queste nuove funzioni saranno disponibili al pubblico, ma è facile immaginare che Meta possa un giorno integrarle nei suoi dispositivi, rendendoli dispositivi ancora più utili e pratici.

Articolo precedenteZoom: arriva l’app per Apple TV
Articolo successivoAMD inaugura il più grande centro di ricerca e sviluppo in India
Team CEOTECH
La tecnologia dovrebbe arricchire la vita delle persone oltre a tutelare il pianeta.