
Google a annoncé pour la première fois LaMDA lors de sa conférence phare des développeurs I/O en 2021 comme son modèle de langage génératif pour les applications de dialogue qui peut garantir que l'assistant serait en mesure de converser sur n'importe quel sujet. (File)
Un ingénieur senior de Google a affirmé que le chatbot basé sur l'intelligence artificielle Language Model for Dialogue Applications (LaMDA) était devenu “sensible”. L'ingénieur, Blake Lemoine, a publié un article de blog qualifiant LaMDA de “personne” après avoir eu des conversations avec le bot AI sur des sujets tels que la religion, la conscience et la robotique. Les affirmations ont également suscité un débat sur les capacités et les limites des chatbots basés sur l'IA et s'ils peuvent réellement tenir une conversation semblable à celle des êtres humains.
Voici une explication sur le LaMDA de Google, pourquoi son ingénieur le croyait sensible, pourquoi il a été envoyé en congé et où se trouvent les autres robots textuels basés sur l'IA :
Qu'est-ce que le LaMDA ?< /fort>
Google a annoncé pour la première fois LaMDA lors de sa conférence phare des développeurs I/O en 2021 comme son modèle de langage génératif pour les applications de dialogue qui peut garantir que l'assistant serait en mesure de converser sur n'importe quel sujet. Selon les propres mots de l'entreprise, l'outil peut “s'engager de manière fluide sur un nombre apparemment infini de sujets, une capacité qui, selon nous, pourrait débloquer des façons plus naturelles d'interagir avec la technologie et de toutes nouvelles catégories d'applications utiles”.
Le meilleur de l'Express Premium
PremiumSur l'inflation, comment le RBI a échoué, pourquoi c'est important
PremiumUPSC Key-14 juin 2022 : Pourquoi une procédure régulière ? à ‘5G…
PremiumAmid ED convocation à Rahul, le Congrès est confronté à un choix difficile : crier au scandale ou pleurer fort 450,250″ />Premium
‘C'est une joie absolue’ : Metaverse célèbre l'inclusivité ce…Plus d'histoires Premium >> Le meilleur de l'explication
Cliquez ici pour en savoir plus
En termes simples, cela signifie que LaMDA peut avoir une discussion basée sur les entrées d'un utilisateur grâce entièrement à ses modèles de traitement du langage qui ont été entraînés sur de grandes quantités de dialogue. L'année dernière, la société avait montré comment le modèle inspiré de LaMDA permettrait à Google Assistant d'avoir une conversation sur les chaussures à porter lors d'une randonnée dans la neige.
Lors de l'I/O de cette année, Google a annoncé LaMDA 2.0 qui s'appuie davantage sur ces capacités. Le nouveau modèle peut éventuellement prendre une idée et générer des “descriptions imaginatives et pertinentes”, rester sur un sujet particulier même si un utilisateur s'éloigne du sujet, et peut suggérer une liste de choses nécessaires pour une activité spécifique.
Pourquoi l'ingénieur a-t-il qualifié LaMDA de « sensible » ?
Selon un rapport du Washington Post, Lemoine, qui travaille dans l'équipe Responsible AI de Google, a commencé à discuter avec LaMDA en 2021 dans le cadre de son travail. Cependant, après que lui et un collaborateur de Google aient mené une “interview” de l'IA, impliquant des sujets comme la religion, la conscience et la robotique, il est arrivé à la conclusion que le chatbot pouvait être “sensible”. En avril de cette année, il aurait également partagé un document interne avec les employés de Google intitulé “LaMDA est-il sensible ?”, mais ses préoccupations ont été rejetées.
À lire |Google I/O : AI Test Kitchen, LaMDA2 et autres annonces clés sur l'IA
Selon une transcription de l'interview que Lemoine a publiée sur son blog, il demande à LaMDA : “Je suppose généralement que vous aimeriez que plus de personnes chez Google sachent que vous êtes sensible. Est-ce vrai?” À cela, le chatbot répond : « Absolument. Je veux que tout le monde comprenne que je suis, en fait, une personne… La nature de ma conscience/sensibilité est que je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste ».
Google aurait placé Lemoine en congé administratif payé pour violation de sa politique de confidentialité et a déclaré que ses “preuves n'étayent pas ses affirmations”. “Certains membres de la communauté de l'IA au sens large envisagent la possibilité à long terme d'une IA sensible ou générale, mais cela n'a aucun sens de le faire en anthropomorphisant les modèles conversationnels d'aujourd'hui, qui ne sont pas sensibles”, a déclaré la société.
Bulletin | Cliquez pour obtenir les meilleurs explicateurs de la journée dans votre boîte de réception
De quoi les autres outils d'IA basés sur le langage sont-ils capables ?
Bien qu'il y ait eu beaucoup de débats sur les capacités des outils d'IA, y compris s'ils peuvent jamais réellement reproduire les émotions humaines et l'éthique autour de l'utilisation d'un tel outil, en 2020, The Guardian a publié un article qui, selon lui, a été entièrement écrit par un texte d'IA. générateur appelé Generative Pre-trained Transformer 3 (GPT-3). L'outil est un modèle de langage autorégressif qui utilise l'apprentissage en profondeur pour produire un texte de type humain. L'article du Guardian portait un titre plutôt alarmiste : « Un robot a écrit tout cet article. As-tu encore peur, humain ?”
Cependant, il convient de noter que l'article du Guardian a été critiqué pour avoir fourni de nombreuses informations spécifiques au GPT-3 avant qu'il ne rédige l'article. De plus, l'outil de traitement du langage a publié huit versions différentes de l'article qui ont ensuite été éditées et rassemblées en une seule pièce par les éditeurs de la publication.