LaMDA 2, l’intelligenza artificiale di Google che ha avuto alcune delle sue novità annunciate durante l’I/O 2022, a maggio, sta ora ricevendo registrazioni anche da parte di utenti interessati a chattare con il chatbot che ha fatto parlare di sé. Oltre alle sue capacità tecnologiche, la macchina ha fatto notizia dopo che Google ha rimosso un ingegnere che accusava l’azienda di violare l’etica della robotica producendo un’IA che avrebbe “preso vita”, con sentimenti – e tutto ciò che un giorno si temeva sarebbe accadere.

Sul caso, Google in gran parte crede che i sistemi siano già abbastanza avanzati da imitare conversazioni e modi umani, ma da lì per provare sentimenti c’è una grande distanza. LaMDA, un modello di elaborazione del linguaggio naturale (NLP), dovrebbe migliorare i suoi assistenti di intelligenza artificiale conversazionale e rendere le conversazioni più naturali. Gli assistenti vocali come Siri o Alexa sono esempi importanti di tali tecnologie in quanto possono tradurre il parlato umano in comandi.

Ora l’azienda vuole un feedback dal pubblico e sta aprendo le candidature per coloro che vogliono essere tra i primi a interagire con la novità. Gli utenti che si iscriveranno al programma beta di LaMDA potranno interagire con questa IA in un ambiente controllato e monitorato.

Gli utenti Android negli Stati Uniti saranno i primi utenti a potersi registrare e il programma si espanderà agli utenti iOS nelle prossime settimane. Questo programma sperimentale offre alcune demo per gli utenti beta per dimostrare le capacità di LaMDA.

La prima demo si chiama “Imagine It”, che consente agli utenti di nominare un luogo, quindi la macchina offre strade per esplorare la loro immaginazione. La seconda demo si chiama “List It”, in cui gli utenti possono condividere un obiettivo o un argomento e quindi scomporlo in un elenco di utili sotto-attività. Infine, l’ultima demo è “Talk About It (Dogs Edition)”, che consente conversazioni aperte sui cani tra utenti e chatbot.

Nonostante i test, Google avverte che il sistema non è ovviamente impeccabile, né privo dei difetti tipici del linguaggio umano. “Il modello può fraintendere l’intento dei termini di identità e a volte non riesce a produrre una risposta quando vengono usati, perché ha difficoltà a distinguere tra richieste benevole e contraddittorie. Può anche produrre risposte dannose o tossiche basate su pregiudizi nei dati di addestramento, generando risposte che stereotipano e travisano le persone in base al loro genere o background culturale”, ha dichiarato l’azienda in un comunicato.

Le domande possono essere presentate tramite il portale AI Test Kitchen di Google.

Articolo precedenteJabra Elite 5, ecco cosa aspettarsi
Articolo successivoGalaxy Z Fold 4 si comporta bene al test di resistenza