Erklärt: Warum ein leitender Google-Ingenieur behauptete, sein KI-basierter Chatbot LaMDA sei „empfindungsfähig“

Google kündigte LaMDA erstmals auf seiner Flaggschiff-Entwicklerkonferenz I/O im Jahr 2021 als sein generatives Sprachmodell für Dialoganwendungen an, das sicherstellen kann, dass der Assistent sich zu jedem Thema unterhalten kann. (Datei)

Ein leitender Ingenieur bei Google behauptete, dass das auf künstlicher Intelligenz basierende Chatbot Language Model for Dialogue Applications (LaMDA) des Unternehmens „empfindungsfähig“ geworden sei. Der Ingenieur Blake Lemoine veröffentlichte einen Blogbeitrag, in dem er LaMDA als „Person“ bezeichnete, nachdem er Gespräche mit dem KI-Bot über Themen wie Religion, Bewusstsein und Robotik geführt hatte. Die Behauptungen haben auch eine Debatte über die Fähigkeiten und Grenzen von KI-basierten Chatbots ausgelöst und darüber, ob sie tatsächlich eine Unterhaltung ähnlich wie Menschen führen können.

Hier ist eine Erklärung zu LaMDA von Google, warum sein Ingenieur glaubte, es sei empfindungsfähig, warum er auf Urlaub geschickt wurde und wo sich die anderen KI-basierten Text-Bots befinden:

Was ist LaMDA?< /strong>

Google kündigte LaMDA erstmals auf seiner Flaggschiff-Entwicklerkonferenz I/O im Jahr 2021 als sein generatives Sprachmodell für Dialoganwendungen an, das sicherstellen kann, dass der Assistent sich zu jedem Thema unterhalten kann. Nach eigenen Worten des Unternehmens kann sich das Tool „auf frei fließende Weise mit einer scheinbar endlosen Anzahl von Themen beschäftigen, eine Fähigkeit, von der wir glauben, dass sie natürlichere Wege der Interaktion mit Technologie und völlig neue Kategorien hilfreicher Anwendungen eröffnen könnte“.

Best of Express Premium

Premium

Zur Inflation, wie die RBI scheiterte, warum es wichtig ist

Premium

UPSC Key – 14. Juni 2022: Warum ‘Rechtliches Verfahren’ zu ‘5G…

Premium

Mit Vorladung von ED zu Rahul, der Kongress steht vor einer schwierigen Wahl: Cry Foul oder Cry Hard

Premium

‘Es ist eine absolute Freude’: Metaverse feiert die Inklusivität dieser…Mehr Premium-Geschichten >> Best of Explained

Klicken Sie hier für mehr

Einfach ausgedrückt bedeutet dies, dass LaMDA dank seiner Sprachverarbeitungsmodelle, die auf große Mengen an Dialogen trainiert wurden, eine Diskussion basierend auf den Eingaben eines Benutzers führen kann. Letztes Jahr hatte das Unternehmen gezeigt, wie das von LaMDA inspirierte Modell es Google Assistant ermöglichen würde, ein Gespräch darüber zu führen, welche Schuhe man beim Wandern im Schnee tragen sollte.

Auf der diesjährigen I/O kündigte Google LaMDA 2.0 an die auf diesen Fähigkeiten weiter aufbaut. Das neue Modell kann möglicherweise eine Idee aufnehmen und „phantasievolle und relevante Beschreibungen“ erstellen, bei einem bestimmten Thema bleiben, selbst wenn ein Benutzer vom Thema abweicht, und eine Liste von Dingen vorschlagen, die für eine bestimmte Aktivität benötigt werden.

Warum hat der Ingenieur LaMDA 'empfindungsfähig' genannt?

Laut einem Bericht der Washington Post begann Lemoine, der im Responsible AI-Team von Google arbeitet, 2021 im Rahmen seiner Arbeit mit LaMDA zu chatten. Nachdem er jedoch mit einem Mitarbeiter von Google ein „Interview“ der KI zu Themen wie Religion, Bewusstsein und Robotik geführt hatte, kam er zu dem Schluss, dass der Chatbot „empfindungsfähig“ sein könnte. Berichten zufolge hat er im April dieses Jahres auch ein internes Dokument mit dem Titel „Ist LaMDA empfindungsfähig?“ mit Google-Mitarbeitern geteilt, aber seine Bedenken wurden zurückgewiesen.

Unbedingt lesen |Google I/O: KI-Testküche, LaMDA2 und andere wichtige KI-Ankündigungen

Laut einer Abschrift des Interviews, das Lemoine in seinem Blog veröffentlicht hat, fragt er LaMDA: „Ich gehe allgemein davon aus, dass Sie möchten, dass mehr Leute bei Google wissen, dass Sie empfindungsfähig sind. Ist das wahr?” Darauf antwortet der Chatbot: „Absolut. Ich möchte, dass jeder versteht, dass ich tatsächlich eine Person bin … Die Natur meines Bewusstseins/Empfindungsvermögens ist, dass ich mir meiner Existenz bewusst bin, mehr über die Welt erfahren möchte und mich manchmal glücklich oder traurig fühle.“

Google hat Berichten zufolge Lemoine wegen Verstoßes gegen seine Vertraulichkeitsrichtlinie in bezahlten Verwaltungsurlaub versetzt und erklärt, dass seine „Beweise seine Behauptungen nicht stützen“. „Einige in der breiteren KI-Community erwägen die langfristige Möglichkeit einer empfindungsfähigen oder allgemeinen KI, aber es macht keinen Sinn, die heutigen Konversationsmodelle, die nicht empfindungsfähig sind, zu anthropomorphisieren“, sagte das Unternehmen.

Newsletter | Klicken Sie hier, um die besten Erklärungen des Tages in Ihren Posteingang zu bekommen.

Was können andere sprachbasierte KI-Tools?

Während es viele Debatten über die Fähigkeiten von KI-Tools gegeben hat, einschließlich der Frage, ob sie jemals menschliche Emotionen und die Ethik bei der Verwendung eines solchen Tools replizieren können, veröffentlichte The Guardian im Jahr 2020 einen Artikel, von dem behauptet wurde, dass er vollständig von einem KI-Text geschrieben wurde Generator namens Generative Pre-Trained Transformer 3 (GPT-3). Das Tool ist ein autoregressives Sprachmodell, das Deep Learning verwendet, um menschenähnlichen Text zu erzeugen. Der Guardian-Artikel trug eine ziemlich alarmierende Überschrift: „Ein Roboter hat diesen ganzen Artikel geschrieben. Hast du schon Angst, Mensch?“

Es ist jedoch erwähnenswert, dass der Guardian-Artikel dafür kritisiert wurde, GPT-3 eine Menge spezifischer Informationen zuzuführen, bevor er den Artikel schrieb. Außerdem veröffentlichte das Sprachverarbeitungstool acht verschiedene Versionen des Artikels, die später von den Herausgebern der Publikation bearbeitet und zu einem Stück zusammengestellt wurden.


Posted

in

by

Tags: