Google I/O 2022: spiegate l'intelligenza artificiale e l'apprendimento automatico di Google

0
65

Alphabet Inc e Sundar Pichai, Chief Executive di Google, parlano alla conferenza annuale degli sviluppatori I/O di Google in California, USA, 11 maggio 2022. (Google/Handout tramite Reuters)

Google , che ha tenuto la sua conferenza per sviluppatori I/O 2022 alla fine di mercoledì, ha raddoppiato lo sviluppo dell'intelligenza artificiale (AI) e dell'apprendimento automatico (ML). Non si concentra solo sulla ricerca, ma anche sullo sviluppo del prodotto.

Una delle aree di interesse di Google è rendere i suoi prodotti, in particolare quelli che coinvolgono la comunicazione, più “sfumati e naturali”. Ciò include lo sviluppo e l'implementazione di nuovi modelli di elaborazione del linguaggio.

Leggi anche |Android 13 annunciato al Google I/O 2022: ecco le novità

Dai un'occhiata a ciò che l'azienda ha annunciato:

AI Test Kitchen

https://images.indianexpress.com/2020/08/1×1.png

Il meglio di Express Premium

Premium

Aviation Secy, la moglie ottiene biglietti A-I a tariffa ridotta per gli Stati Uniti, passa a Business

Premium

Oroscopo di oggi, 14 maggio 2022: Gemelli, Ariete, Pesci e altri segni — ch…

Premium

Ferro nel Tamil Nadu 4.200 anni fa: una nuova datazione e il suo significato

Premium

Spiegazione: la sfida dei fertilizzantiAltre storie premium >>

Dopo aver lanciato LaMDA (Language Model for Dialog Applications) l'anno scorso, che ha consentito all'Assistente Google di avere conversazioni più naturali, Google ha annunciato LaMDA 2 e AI Test Kitchen, un'app che consentirà agli utenti di accedere a questo modello.

La AI Test Kitchen consentirà agli utenti di esplorare queste funzionalità di intelligenza artificiale e darà loro un'idea di ciò di cui è capace LaMDA 2.

Google ha lanciato AI Test Kitchen con tre demo: la prima, chiamata “Imagine It”, consente agli utenti di suggerire un'idea di conversazione e il modello di elaborazione del linguaggio di Google ritorna quindi con “descrizioni fantasiose e pertinenti” sull'idea. Il secondo, chiamato “Parlarne”, assicura che il modello linguistico rimanga in tema, il che può essere una sfida. Il terzo modello, chiamato “List It Out”, suggerirà un potenziale elenco di cose da fare, cose da tenere a mente o suggerimenti per una determinata attività.

Leggi |Google Pixel 6A, Pixel Buds Pro lanciato su I/O 2022; arriverà in India entro la fine dell'anno

Pathways Language Model (PaLM)

PaLM è un nuovo modello per l'elaborazione del linguaggio naturale e l'IA. Secondo Google, è il loro modello più grande fino ad oggi e addestrato su 540 miliardi di parametri.

Per ora, il modello può rispondere a problemi di parole matematiche o spiegare una barzelletta, grazie a ciò che Google descrive come catena di – suggerimento di pensiero, che consente di descrivere i problemi a più passaggi come una serie di passaggi intermedi.

Un esempio mostrato con PaLM è stato il modello di intelligenza artificiale che risponde alle domande sia in bengalese che in inglese. Ad esempio, Sundar Pichai, CEO di Google e Alphabet, ha chiesto al modello i condimenti per pizza popolari a New York City e la risposta è apparsa in Bangla nonostante PaLM non avesse mai visto frasi parallele nella lingua.

La speranza di Google è di estendere queste capacità e tecniche in più lingue e altri compiti complessi.

Best of Explained

Clicca qui per ulteriori informazioni

Ricerca multipla su Lens< /forte>

Google ha anche annunciato nuovi miglioramenti al suo strumento Lens Multisearch, che consentirà agli utenti di effettuare una ricerca solo con un'immagine e alcune parole.

“Nell'app Google, puoi cercare con immagini e testo contemporaneamente tempo – simile a come potresti indicare qualcosa e chiederlo a un amico”, ha affermato la società.

Gli utenti potranno anche utilizzare un'immagine o uno screenshot e aggiungere “vicino a me” per vedere le opzioni per ristoranti o rivenditori locali che offrono abbigliamento, articoli per la casa e cibo, tra le altre cose.

Con un progresso chiamato “esplorazione della scena”, gli utenti saranno in grado di utilizzare la ricerca multipla per eseguire una panoramica della fotocamera e ottenere istantaneamente informazioni dettagliate su più oggetti in una scena più ampia.

Google Maps immersiva

Google ha annunciato un modo più coinvolgente per usa la sua app Mappe. Utilizzando la visione artificiale e l'intelligenza artificiale, l'azienda ha fuso miliardi di Street View e immagini aeree per creare un ricco modello digitale del mondo. Con la nuova visualizzazione immersiva, gli utenti possono provare com'è un quartiere, un punto di riferimento, un ristorante o un luogo popolare.

Leggi anche |Android 13 beta 2 annunciato all'I/O 2022: ecco le novità

Supporto per nuove lingue in Google Translate

Google ha anche aggiunto 24 nuove lingue a Translate, tra cui assamese, bhojpuri, konkani, sanscrito e mizo. Queste lingue sono state aggiunte utilizzando la “Traduzione automatica a scatto zero”, in cui un modello di apprendimento automatico vede solo testo monolingue, il che significa che impara a tradurre in un'altra lingua senza mai vedere un esempio.

Tuttavia, l'azienda ha osservato che la tecnologia non è perfetta e continuerebbe a migliorare questi modelli.