Google I/O 2022: Google's doorbraken op het gebied van kunstmatige intelligentie en machine learning, uitgelegd

0
29

Alphabet Inc en Google Chief Executive Sundar Pichai spreken op de jaarlijkse I/O-ontwikkelaarsconferentie van Google in Californië, VS, 11 mei 2022. (Google/Hand-out via Reuters)

Google , die eind woensdag zijn ontwikkelaarsconferentie I/O 2022 hield, is verdubbeld op het gebied van kunstmatige intelligentie (AI) en machine learning (ML) ontwikkeling. Het richt zich niet alleen op onderzoek, maar ook op productontwikkeling.

Een van de aandachtsgebieden van Google is om zijn producten, vooral die op het gebied van communicatie, meer “genuanceerd en natuurlijk” te maken. Dit omvat de ontwikkeling en implementatie van nieuwe taalverwerkingsmodellen.

Lees ook |Android 13 aangekondigd op Google I/O 2022: Dit is wat er nieuw is

Bekijk wat het bedrijf heeft aangekondigd:

AI Test Kitchen

https://images.indianexpress.com/2020/08/1×1.png

Best of Express Premium

Premium

Aviation Secy, vrouw krijgen voordelige AI-tickets naar de VS, upgrade naar Business

Premium

Horoscoop vandaag, 14 mei 2022: Tweelingen, Ram, Vissen en andere tekens — ch…Premium

IJzer in Tamil Nadu 4.200 jaar geleden: een nieuwe datering en de betekenis ervan

Premium

Uitgelegd: de kunstmestuitdagingMeer Premium Stories >>

Na de lancering van LaMDA (Language Model for Dialog Applications) vorig jaar, waardoor de Google Assistent meer natuurlijke gesprekken kon voeren, heeft Google LaMDA 2 en de AI Test Kitchen aangekondigd, een app die gebruikers toegang geeft tot dit model.

In de AI Test Kitchen kunnen gebruikers deze AI-functies verkennen en krijgen ze een idee van waartoe LaMDA 2 in staat is.

Google heeft de AI Test Kitchen gelanceerd met drie demo's – de eerste, genaamd 'Imagine It', stelt gebruikers in staat een gespreksidee voor te stellen en het taalverwerkingsmodel van Google keert vervolgens terug met “fantasierijke en relevante beschrijvingen” over het idee. De tweede, 'Talk About it' genaamd, zorgt ervoor dat het taalmodel bij het onderwerp blijft, wat een uitdaging kan zijn. Het derde model, genaamd 'List It Out', zal een mogelijke lijst met taken, dingen om in gedachten te houden of pro-tips voor een bepaalde taak voorstellen.

Lees |Google Pixel 6A, Pixel Buds Pro gelanceerd op I/O 2022; zal later dit jaar naar India komen

Pathways Language Model (PaLM)

PaLM is een nieuw model voor natuurlijke taalverwerking en AI. Volgens Google is het hun grootste model tot nu toe, en getraind op 540 miljard parameters.

Voorlopig kan het model wiskundige woordproblemen beantwoorden of een grap uitleggen, dankzij wat Google beschrijft als chain-of -gedachteprompt, waarmee het meerstapsproblemen kan beschrijven als een reeks tussenstappen.

Een voorbeeld dat met PaLM werd getoond, was het AI-model dat vragen beantwoordde in zowel Bangla als Engels. Google en Alphabet CEO Sundar Pichai vroegen het model bijvoorbeeld naar populaire pizza-toppings in New York City, en het antwoord verscheen in Bangla, ondanks dat PaLM nog nooit parallelle zinnen in de taal had gezien.

Google hoopt dit uit te breiden. deze mogelijkheden en technieken voor meer talen en andere complexe taken.

Best of Explained

Klik hier voor meer

Multisearch op Lens< /strong>

Google heeft ook nieuwe verbeteringen aangekondigd aan zijn Lens Multisearch-tool, waarmee gebruikers een zoekopdracht kunnen uitvoeren met slechts een afbeelding en enkele woorden.

“In de Google-app kunt u tegelijkertijd zoeken met afbeeldingen en tekst tijd – vergelijkbaar met hoe je naar iets kunt wijzen en er een vriend over kunt vragen', zei het bedrijf.

Gebruikers kunnen ook een foto of screenshot gebruiken en “bij mij in de buurt” toevoegen om opties te zien voor lokale restaurants of winkeliers die onder andere kleding, huishoudelijke artikelen en eten hebben.

Met een vooruitgang die 'scène-verkenning' wordt genoemd, kunnen gebruikers Multisearch gebruiken om hun camera te pannen en direct inzicht te krijgen in meerdere objecten in een bredere scène.

Meeslepende Google Maps

Google heeft een meer meeslepende manier aangekondigd om gebruik de Maps-app. Met behulp van computervisie en AI heeft het bedrijf miljarden Street View- en luchtfoto's samengevoegd tot een rijk, digitaal model van de wereld. Met de nieuwe meeslepende weergave kunnen gebruikers ervaren hoe een buurt, monument, restaurant of populaire locatie eruit ziet.

Lees ook |Android 13 beta 2 aangekondigd op I/O 2022: Dit is wat er nieuw is

Ondersteuning voor nieuwe talen in Google Translate

Google heeft ook 24 nieuwe talen aan Translate toegevoegd, waaronder Assamees, Bhojpuri, Konkani, Sanskriet en Mizo. Deze talen zijn toegevoegd met behulp van 'Zero-Shot Machine Translation', waarbij een machine learning-model alleen eentalige tekst ziet – wat inhoudt dat het leert om in een andere taal te vertalen zonder ooit een voorbeeld te zien.

Het bedrijf merkte echter op dat dat de technologie niet perfect is en deze modellen zou blijven verbeteren.