Google I/O 2022 : les avancées de Google en matière d'intelligence artificielle et d'apprentissage automatique, expliquées

0
60

Alphabet Inc et le directeur général de Google, Sundar Pichai, prennent la parole lors de la conférence annuelle des développeurs d'E/S de Google en Californie, aux États-Unis, le 11 mai 2022. (Google/Handout via Reuters)

Google , qui a tenu sa conférence des développeurs I/O 2022 tard mercredi, a doublé sur le développement de l'intelligence artificielle (IA) et de l'apprentissage automatique (ML). Il se concentre non seulement sur la recherche, mais aussi sur le développement de produits.

L'un des domaines d'intérêt de Google est de rendre ses produits, en particulier ceux impliquant la communication, plus “nuancés et naturels”. Cela inclut le développement et le déploiement de nouveaux modèles de traitement du langage.

Lire aussi |Android 13 annoncé lors de la Google I/O 2022 : voici les nouveautés

Découvrez ce que l'entreprise a annoncé :

AI Test Kitchen

https://images.indianexpress.com/2020/08/1×1.png

Le meilleur d'Express Premium

PremiumAviation Secy, sa femme obtient des billets A-I à prix réduit pour les États-Unis, passe à Business

Premium

Horoscope du jour, 14 mai 2022 : Gémeaux, Bélier, Poissons et autres signes — ch…

Premium

Fer au Tamil Nadu il y a 4 200 ans : une nouvelle datation et sa signification

Premium

Expliqué : Le défi des engraisPlus d'histoires Premium >>

Après avoir lancé LaMDA (Language Model for Dialog Applications) l'année dernière, qui permettait à Google Assistant d'avoir des conversations plus naturelles, Google a annoncé LaMDA 2 et l'AI Test Kitchen, qui est une application qui donnera accès à ce modèle aux utilisateurs.

La cuisine de test de l'IA permettra aux utilisateurs d'explorer ces fonctionnalités d'IA et leur donnera une idée de ce dont LaMDA 2 est capable.

Google a lancé AI Test Kitchen avec trois démos – la première, appelée “Imagine It”, permet aux utilisateurs de suggérer une idée de conversation et le modèle de traitement du langage de Google revient ensuite avec des “descriptions imaginatives et pertinentes” sur l'idée. Le second, appelé “Parlez-en”, garantit que le modèle de langage reste sur le sujet, ce qui peut être un défi. Le troisième modèle, appelé “List It Out”, proposera une liste potentielle de tâches, de choses à garder à l'esprit ou de conseils de pro pour une tâche donnée.

Lire | Google Pixel 6A, Pixel Buds Pro lancé sur E/S 2022 ; viendra en Inde plus tard cette année

Pathways Language Model (PaLM)

PaLM est un nouveau modèle pour le traitement du langage naturel et l'IA. Selon Google, il s'agit de leur plus grand modèle à ce jour et formé sur 540 milliards de paramètres.

Pour l'instant, le modèle peut répondre à des problèmes de mots mathématiques ou expliquer une blague, grâce à ce que Google décrit comme une chaîne de -l'incitation à la pensée, qui lui permet de décrire des problèmes à plusieurs étapes comme une série d'étapes intermédiaires.

Un exemple qui a été montré avec PaLM était le modèle d'IA répondant aux questions en bengali et en anglais. Par exemple, Sundar Pichai, PDG de Google et d'Alphabet, a interrogé le modèle sur les garnitures de pizza populaires à New York, et la réponse est apparue en bengali, bien que PaLM n'ait jamais vu de phrases parallèles dans la langue.

Google espère étendre ces capacités et techniques à davantage de langages et à d'autres tâches complexes.

Le meilleur de l'explication

Cliquez ici pour en savoir plus

Multirecherche sur Lens< /fort>

Google a également annoncé de nouvelles améliorations à son outil Lens Multisearch, qui permettra aux utilisateurs d'effectuer une recherche avec juste une image et quelques mots.

“Dans l'application Google, vous pouvez effectuer une recherche avec des images et du texte en même temps temps – similaire à la façon dont vous pourriez pointer quelque chose et demander à un ami à ce sujet “, a déclaré la société.

Les utilisateurs pourront également utiliser une image ou une capture d'écran et ajouter “près de moi” pour voir les options pour restaurants ou détaillants locaux proposant des vêtements, des articles pour la maison et de la nourriture, entre autres.

Grâce à une avancée appelée “exploration de scènes”, les utilisateurs pourront utiliser Multisearch pour effectuer un panoramique de leur caméra et obtenir instantanément des informations sur plusieurs objets dans une scène plus large.

Google Maps immersif

Google a annoncé une façon plus immersive de utiliser son application Maps. À l'aide de la vision par ordinateur et de l'intelligence artificielle, l'entreprise a fusionné des milliards d'images Street View et aériennes pour créer un modèle numérique riche du monde. Avec la nouvelle vue immersive, les utilisateurs peuvent découvrir à quoi ressemble un quartier, un point de repère, un restaurant ou un lieu populaire.

Lire aussi |Android 13 beta 2 annoncé à I/O 2022 : voici les nouveautés

Assistance de nouvelles langues dans Google Traduction

Google a également ajouté 24 nouvelles langues à Google Traduction, dont l'assamais, le bhojpuri, le konkani, le sanskrit et le mizo. Ces langues ont été ajoutées à l'aide de “Zero-Shot Machine Translation”, où un modèle d'apprentissage automatique ne voit que du texte monolingue, ce qui signifie qu'il apprend à traduire dans une autre langue sans jamais voir d'exemple.

Cependant, la société a noté que la technologie n'est pas parfaite et qu'elle continuerait d'améliorer ces modèles.