Google I/O 2022: Googles Durchbrüche bei künstlicher Intelligenz und maschinellem Lernen, erklärt

0
122

Alphabet Inc und Google Chief Executive Sundar Pichai sprechen auf der jährlichen I/O-Entwicklerkonferenz von Google in Kalifornien, USA, am 11. Mai 2022. (Google/Handout via Reuters)

Google , die am späten Mittwoch ihre Entwicklerkonferenz I/O 2022 abhielt, hat die Entwicklung von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) verdoppelt. Es konzentriert sich nicht nur auf die Forschung, sondern auch auf die Produktentwicklung.

Einer der Schwerpunkte von Google ist es, seine Produkte, insbesondere diejenigen, die Kommunikation betreffen, „nuancierter und natürlicher“ zu machen. Dies umfasst die Entwicklung und Bereitstellung neuer Sprachverarbeitungsmodelle.

Lesen Sie auch |Android 13 auf der Google I/O 2022 angekündigt: Das ist neu

Schauen Sie sich an, was das Unternehmen angekündigt hat:

AI Test Kitchen

https://images.indianexpress.com/2020/08/1×1.png

Best of Express Premium

PrämieAviation Secy, Frau bekommt ermäßigte A-I-Tickets in die USA, Upgrade auf Business

Premium

Horoskop heute, 14. Mai 2022: Zwillinge, Widder, Fische und andere Zeichen — ch…

Premium

Eisen in Tamil Nadu vor 4.200 Jahren: eine neue Datierung und ihre Bedeutung

Premium

Erklärt: Die Düngemittel-HerausforderungWeitere Premium-Geschichten >>

Nach der Einführung von LaMDA (Language Model for Dialog Applications) im vergangenen Jahr, das es Google Assistant ermöglichte, natürlichere Gespräche zu führen, hat Google LaMDA 2 und die AI Test Kitchen angekündigt, eine App, die Benutzern Zugang zu diesem Modell verschaffen wird.

Die KI-Testküche lässt Benutzer diese KI-Funktionen erkunden und gibt ihnen einen Eindruck davon, wozu LaMDA 2 fähig ist.

Google hat die AI Test Kitchen mit drei Demos gestartet – die erste mit dem Namen „Imagine It“ ermöglicht es Benutzern, eine Konversationsidee vorzuschlagen, und das Sprachverarbeitungsmodell von Google kehrt dann mit „phantasievollen und relevanten Beschreibungen“ über die Idee zurück. Der zweite, „Talk About it“, stellt sicher, dass das Sprachmodell beim Thema bleibt, was eine Herausforderung sein kann. Das dritte Modell mit dem Namen „List It Out“ schlägt eine mögliche Liste mit To-Dos, zu beachtenden Dingen oder Profi-Tipps für eine bestimmte Aufgabe vor.

Lesen |Google Pixel 6A, Pixel Buds Pro gestartet um E/A 2022; wird später in diesem Jahr nach Indien kommen

Pathways Language Model (PaLM)

PaLM ist ein neues Modell für die Verarbeitung natürlicher Sprache und KI. Laut Google ist es ihr bisher größtes Modell und wurde mit 540 Milliarden Parametern trainiert.

Im Moment kann das Modell mathematische Wortprobleme beantworten oder einen Witz erklären, dank dessen, was Google als Chain-of bezeichnet – Gedankenaufforderung, wodurch mehrstufige Probleme als eine Reihe von Zwischenschritten beschrieben werden können.

Ein Beispiel, das mit PaLM gezeigt wurde, war das KI-Modell, das Fragen sowohl in Bangla als auch in Englisch beantwortete. Zum Beispiel fragte Sundar Pichai, CEO von Google und Alphabet, das Model nach beliebten Pizzabelägen in New York City, und die Antwort erschien in Bangla, obwohl PaLM noch nie parallele Sätze in der Sprache gesehen hatte.

Google hofft, sich zu erweitern diese Fähigkeiten und Techniken auf mehr Sprachen und andere komplexe Aufgaben.

Best of Explained

Klicken Sie hier für mehr

Multisearch on Lens< /strong>

Google kündigte auch neue Verbesserungen seines Lens Multisearch-Tools an, das es Benutzern ermöglichen wird, eine Suche nur mit einem Bild und einigen Wörtern durchzuführen.

„In der Google-App können Sie gleichzeitig mit Bildern und Text suchen Zeit – ähnlich wie Sie auf etwas zeigen und einen Freund danach fragen“, sagte das Unternehmen.

Benutzer können auch ein Bild oder einen Screenshot verwenden und „in meiner Nähe“ hinzufügen, um Optionen für anzuzeigen Lokale Restaurants oder Einzelhändler, die unter anderem Kleidung, Haushaltswaren und Lebensmittel anbieten.

Mit einer Weiterentwicklung namens „Scene Exploration“ können Benutzer Multisearch verwenden, um ihre Kamera zu schwenken und sofort Erkenntnisse über mehrere Objekte in einer größeren Szene zu gewinnen.

Immersives Google Maps

Google hat eine umfassendere Möglichkeit angekündigt Verwenden Sie die Karten-App. Mithilfe von Computer Vision und KI hat das Unternehmen Milliarden von Street View- und Luftbildern zusammengeführt, um ein umfassendes digitales Modell der Welt zu erstellen. Mit der neuen immersiven Ansicht können Benutzer erleben, wie ein Viertel, eine Sehenswürdigkeit, ein Restaurant oder ein beliebter Veranstaltungsort ist.

Lesen Sie auch |Android 13 Beta 2 auf der I/O 2022 angekündigt: Neuer Support

für neue Sprachen in Google Übersetzer

Google hat auch 24 neue Sprachen zu Google Übersetzer hinzugefügt, darunter Assamesisch, Bhojpuri, Konkani, Sanskrit und Mizo. Diese Sprachen wurden mithilfe von „Zero-Shot Machine Translation“ hinzugefügt, bei der ein maschinelles Lernmodell nur einsprachigen Text sieht – das heißt, es lernt, in eine andere Sprache zu übersetzen, ohne jemals ein Beispiel zu sehen.

Das Unternehmen stellte jedoch fest dass die Technologie nicht perfekt ist und diese Modelle ständig verbessern würde.