Qu'est-ce que l'IA LaMDA de Google et pourquoi un ingénieur Google pense-t-il qu'elle est sensible ?

0
114
Jirsak/Shutterstock.com

Un senior ingénieur chez Google a affirmé que l'IA LaMDA de l'entreprise était devenue sensible. Que vous trouviez cela alarmant ou excitant, c'est une affirmation très audacieuse, et peut-être difficile à prouver même si elle était tout à fait vraie.

Qu'est-ce que LaMDA ?

LaMDA est l'abréviation de Language Model for Dialog Application. En d'autres termes, il s'agit d'un modèle de langage d'apprentissage automatique spécialement conçu pour générer un dialogue naturel. Les méthodes d'apprentissage automatique permettent aux ordinateurs de découvrir des modèles et des relations dans les données. Ainsi, par exemple, vous pouvez “former” un algorithme d'apprentissage automatique tel que GPT-3 (un autre système de pointe) sur toutes les œuvres de Shakespeare, puis lui faire générer de nouveaux textes originaux qui se lisent comme Shakespeare.

RELATEDQu'est-ce que l'apprentissage automatique ?

Comme l'explique Sundar Pichai (PDG de Google) dans une interview avec Yahoo Finance, LaMDA est un système différent car il a été spécialement formé au dialogue. L'intention est de donner aux systèmes de Google la possibilité d'engager un dialogue ouvert et humain avec les utilisateurs.

En d'autres termes, les personnes qui demandent des produits Google pour des choses spécifiques n'ont pas changer leur façon de penser ou de parler. Ils peuvent interagir avec le système informatique de la même manière qu'ils interagiraient avec une autre personne.

Sous le capot, tous les modèles d'apprentissage automatique actuels sont en fait des modèles mathématiques et statistiques sophistiqués. Ils génèrent des algorithmes basés sur les modèles sous-jacents qu'ils découvrent dans les données. Donnez-leur suffisamment de données de haute qualité, et ces algorithmes deviennent incroyablement efficaces pour faire des choses que seuls les humains ou d'autres intelligences naturelles ont été capables de faire jusqu'à présent.

Pourquoi un ingénieur Google pense-t-il que LaMDA est sensible ?

Phonlamai Photo/Shutterstock.com

L'ingénieur en question est Blake Lemoine, qui a publié une interview entre lui et LaMDA dans le cadre de son argumentaire expliquant pourquoi LaMDA pourrait être sensible. Lemoine a passé des mois en conversation avec le logiciel, l'interrogeant, lui posant des questions complexes et ayant du mal à croire que ses réponses complexes et appropriées puissent être le produit d'autre chose qu'un être sensible.

Il est préférable que tous ceux qui veulent comprendre pourquoi Lemoine se sente ainsi lisent les réponses de LaMDA pour eux-mêmes afin de comprendre pourquoi il s'agit d'une position si convaincante à adopter. Les réponses de LaMDA sont si humaines qu'elles rappellent l'IA fictive de l'assistant personnel de Spike Jonze's Her, une histoire où un humain développe une relation sérieuse avec une IA conversationnelle. /p>

Indépendamment de la question de savoir si les affirmations de Lemoine à propos de LaMDA ont du poids, il convient de noter que l'objectif de conception de LaMDA est de générer un dialogue ouvert naturel et crédible. Ainsi, en ce sens, sa conviction indique que Google a obtenu un succès spectaculaire pour générer un dialogue crédible. Si un système d'IA devait convaincre un humain qu'il était sensible, il s'agirait probablement d'un système spécialement conçu pour cela.

Le problème est que les affirmations de sensibilité ne sont pas vraiment testables (ou du moins pas réalisables ou éthiquement testables) pour un certain nombre de raisons scientifiques et philosophiques. Pour comprendre pourquoi, nous devons examiner brièvement ce qu'est la “sensibilité” ; signifie.

Qu'est-ce que la sensibilité ?

Le mot "sensibilité" signifie essentiellement que quelque chose (un chat, un humain ou un tapis roulant) a la capacité de ressentir. il partage la même racine que “sentimental” ou “sentiment”. La sensibilité ne signifie pas seulement que quelque chose a la capacité de sentir. Votre thermostat n'est presque certainement pas sensible malgré sa capacité à indiquer la température. Au lieu de cela, la sensibilité concerne l'expérience subjective des sentiments, ce qui implique qu'il existe un “sujet”. en premier lieu.

Il est dangereux de se laisser prendre à la sémantique ici car il est probable que Lemoine utilise le mot « sentience » ; indifféremment avec des concepts distincts comme “sapience,” “l'intelligence,” et “la conscience.” Donc, pour les besoins de la discussion, l'interprétation la plus charitable ici est que Lemoine pense que Lamda est un être conscient de soi, capable de ressentir les choses, d'avoir des croyances et d'expérimenter les choses d'une manière que nous attribuons habituellement aux créatures vivantes.

Dans un article supplémentaire, Lemoine discute de ce qu'il pense que LaMDA “veut” ; et “croit”, qui soutient l'idée que “la sensibilité” à son avis signifie plus que sa définition stricte du dictionnaire.

Nous ne comprenons pas la sensibilité et la conscience en premier lieu

Voici le problème : nous en savons relativement peu sur la sensibilité, la conscience, l'intelligence et ce que cela signifie d'être une entité qui possède ces attributs. Assez ironiquement, la technologie d'apprentissage automatique pourrait éventuellement nous aider à percer certains des mystères de nos esprits et des cerveaux dans lesquels ils existent.

Pour l'instant, les philosophes et les scientifiques s'attaquent à la « boîte noire » ; de la conscience, mais il semble toujours être le résultat de quelque chose de plus que la somme de ses parties. La conscience semble être une “émergente” chose. C'est un “fantôme” qui est généré à partir de l'interaction de nombreux sous-systèmes neuronaux différents, dont aucun ne semble être sensible par lui-même.

RELATEDL'IA DALL-E 2 d'OpenAI n'est qu'une mauvaise nouvelle pour certains artistes

De même, une intelligence artificielle sophistiquée telle que le système de génération d'images DALL-E 2 consiste en des modèles d'apprentissage automatique plus simples qui s'alimentent les uns les autres pour créer le produit final. Le thème de la complexité découlant de l'interaction de systèmes plus simples est un thème que vous rencontrerez souvent dans le monde de l'IA, et bien que nous ayons une très bonne compréhension du fonctionnement de chaque sous-composant, les résultats finaux sont généralement assez imprévisibles.< /p>

Est-ce que nous reconnaîtrions même la sensibilité dans l'IA ?

Si, pour les besoins de la discussion, une IA était réellement sensible au vrai sens du terme, serions-nous même capables de le dire ? LaMDA a été conçu pour imiter et prédire les modèles de dialogue humain, de sorte que le jeu est vraiment empilé lorsqu'il s'agit de déclencher les choses que les humains associent à l'intelligence de type humain. Cependant, il nous a fallu beaucoup de temps pour considérer les primates non humains et les animaux tels que les dauphins, les pieuvres et les éléphants comme sensibles, même si dans le grand schéma des choses, ils sont pratiquement nos frères et sœurs.

Une IA sensible peut être si étrangère que nous ne saurions pas que nous en regardons une juste devant nous. C'est d'autant plus probable que nous ne savons pas quelles sont les conditions de seuil pour que la sensibilité émerge. Il n'est pas difficile d'imaginer que la bonne combinaison de sous-systèmes de données et d'IA mélangés de la bonne manière puisse soudainement donner naissance à quelque chose qui serait qualifié de sensible, mais cela peut passer inaperçu car cela ne ressemble pas à tout ce que nous pouvons comprendre.

Si ça ressemble à un canard

Alexander_P/Shutterstock.com

Le dernier gros problème avec les revendications de sensibilité dans les machines est le même problème avec les revendications de sensibilité dans n'importe quoi d'autre, y compris les êtres humains. Philosophiquement, vous ne savez pas si l'une des personnes avec lesquelles vous interagissez est réellement sensible ou non. C'est le problème philosophique classique du zombie, qui est une expérience de pensée sur des êtres hypothétiques qui sont complètement impossibles à distinguer d'un être humain, sauf qu'ils manquent de sensibilité ou de tout type d'expérience consciente.

Cependant, comme Le célèbre test d'Alan Turing postulait que peu importe qu'une IA soit “vraiment” ; penser et ressentir. Ce qui compte, c'est qu'il peut imiter l'apparence de penser et de sentir si bien que nous ne pouvons pas faire la différence. Selon la personne à qui vous demandez, LaMDA a déjà réussi le test de Turing, ce qui pourrait faire des affirmations invérifiables de Lemoine un point discutable.

LIRE LA SUITE

  • › Examen de PrivadoVPN : perturber le marché ?
  • &rsaquo ; 4 façons dont vous endommagez la batterie de votre ordinateur portable
  • › Ces gadgets bannissent les moustiques
  • &rsaquo ; 10 fonctionnalités Samsung Galaxy que vous devriez utiliser
  • › Examen du moniteur INNOCN Ultrawide 40 pouces 40C1R : une énorme affaire avec quelques compromis
  • &rsaquo ; Nouveautés de Chrome 103, disponible dès maintenant