Förklarat: Varför en senior Google-ingenjör hävdade att dess AI-baserade chatbot LaMDA är “kännande”

0
89

Google tillkännagav först LaMDA vid sin flaggskeppsutvecklarkonferens I/O 2021 som sin generativa språkmodell för dialogapplikationer som kan säkerställa att assistenten skulle kunna konversera om vilket ämne som helst. (Arkiv)

En senior ingenjör på Google hävdade att företagets artificiell intelligens-baserade chatbot Language Model for Dialogue Applications (LaMDA) hade blivit “kännande”. Ingenjören, Blake Lemoine, publicerade ett blogginlägg som märkte LaMDA som en “person” efter att ha haft samtal med AI-boten om ämnen som religion, medvetande och robotik. Påståendena har också stimulerat en debatt om kapaciteten och begränsningarna hos AI-baserade chatbots och om de faktiskt kan föra en konversation som liknar människor.

Här är en förklaring om Googles LaMDA, varför dess ingenjör trodde att den var kännande, varför han har skickats på permission och var de andra AI-baserade textrobotarna finns:

Vad är LaMDA?< /strong>

Google tillkännagav först LaMDA vid sin flaggskeppsutvecklarkonferens I/O 2021 som sin generativa språkmodell för dialogapplikationer som kan säkerställa att assistenten skulle kunna konversera om vilket ämne som helst. Med företagets egna ord kan verktyget “på ett fritt flödande sätt engagera sig i ett till synes oändligt antal ämnen, en förmåga som vi tror skulle kunna låsa upp mer naturliga sätt att interagera med teknik och helt nya kategorier av användbara applikationer”.

Best of Express Premium

PremiumOm inflation, hur RBI misslyckades, varför det spelar roll

Premium

UPSC Key-14 juni 2022: Varför ‘Due Process of Law’ till ‘5G…

Premium

Midt ED-kallelser till Rahul, kongressen står inför svåra val: gråta fult eller gråta hårt

Premium

‘Det är en absolut glädje’: Metaverse firar inkludering…Fler premiumhistorier >> Best of Explained

Klicka här för mer

Enkelt uttryckt betyder det att LaMDA kan föra en diskussion baserat på en användares input helt och hållet tack vare dess språkbehandlingsmodeller som har tränats på stora mängder dialog. Förra året hade företaget visat upp hur den LaMDA-inspirerade modellen skulle tillåta Google Assistant att ha en konversation kring vilka skor man ska ha på sig när man vandrar i snön.

Vid årets I/O tillkännagav Google LaMDA 2.0 som ytterligare bygger på dessa förmågor. Den nya modellen kan möjligen ta en idé och generera “fantasifulla och relevanta beskrivningar”, stanna vid ett visst ämne även om en användare avviker från ämnet, och kan föreslå en lista över saker som behövs för en viss aktivitet.

Varför kallade ingenjören LaMDA för “kännande”?

Enligt en rapport från The Washington Post började Lemoine, som arbetar i Googles ansvariga AI-team, chatta med LaMDA 2021 som en del av sitt jobb. Men efter att han och en medarbetare på Google genomförde en “intervju” av AI, som involverade ämnen som religion, medvetande och robotik, kom han till slutsatsen att chatboten kan vara “kännande”. I april i år delade han enligt uppgift också ett internt dokument med Google-anställda med titeln “Is LaMDA sentient?”, men hans oro avfärdades.

Måste läsa |Google I/O: AI Test kitchen, LaMDA2 och andra viktiga AI-meddelanden

Enligt en utskrift av intervjun som Lemoine publicerade på sin blogg frågar han LaMDA: “Jag antar i allmänhet att du skulle vilja att fler på Google ska veta att du är kännande. Är det sant?” På det svarar chatboten, “Absolut. Jag vill att alla ska förstå att jag i själva verket är en person… Naturen av mitt medvetande/känsla är att jag är medveten om min existens, jag vill lära mig mer om världen och jag känner mig glad eller ledsen ibland”.

Google har enligt uppgift placerat Lemoine på betald administrativ ledighet för att ha brutit mot dess sekretesspolicy och sagt att hans “bevis inte stöder hans påståenden”. “Några i det bredare AI-samhället överväger möjligheten på lång sikt av kännande eller allmän AI, men det är inte meningsfullt att göra det genom att antropomorfiera dagens konversationsmodeller, som inte är kännande,” sa företaget.

Nyhetsbrev | Klicka för att få dagens bästa förklaringar i din inkorg

Vad kan andra språkbaserade AI-verktyg?

Även om det har varit en hel del debatt kring AI-verktygens kapacitet, inklusive om de någonsin faktiskt kan replikera mänskliga känslor och etiken kring att använda ett sådant verktyg, publicerade The Guardian 2020 en artikel som den hävdade var skriven helt av en AI-text generator som heter Generative Pre-trained Transformer 3 (GPT-3). Verktyget är en autoregressiv språkmodell som använder djupinlärning för att producera människoliknande text. Guardian-artikeln hade en ganska alarmistisk rubrik, “En robot skrev hela den här artikeln. Är du rädd ännu, människa?”

Det är dock värt att notera att Guardian-artikeln kritiserades för att mata in mycket specifik information till GPT-3 innan den skrev artikeln. Språkbearbetningsverktyget publicerade också åtta olika versioner av artikeln som senare redigerades och sammanställdes som ett stycke av publikationens redaktörer.