AllInfo

Hej Google, jag litar fortfarande inte på att Gemini AI gör uppgifter

Nyckelalternativ

Google hade många AI-funktioner att prata om idag på Google I/O, som förmodas kunna göra allt från att lösa matematiska problem till att hantera hemreparationer. Ju mer jag tittade på presentationen, desto mer undrade jag: hur kunde du någonsin lita på AI för dessa uppgifter?

Den första vågen av generativa AI-chatbotar och modeller fokuserade nästan helt på att analysera och skapa text. Du kan be ChatGPT att skriva en personlig dikt, eller sammanfatta en klassisk fiktionsroman, eller skriva någon JavaScript- eller C++-kod. Det expanderade också till olika medieformat, som bilder och video. Generativ AI är fortfarande inte det perfekta verktyget för många av dessa användningsfall, men det kan definitivt vara användbart.

Google försöker nu driva generativ AI som en mer komplett virtuell assistent, som kan utföra vissa uppgifter med minimal eller ingen mänsklig inblandning. Google Assistant, Siri och andra tidigare virtuella assistenter kunde hantera vissa grundläggande uppgifter, som att hitta en närliggande restaurang och starta navigeringsanvisningar. Google vill driva det ännu längre med sin Gemini AI-teknik och ta över uppgifter som normalt skulle kräva mänsklig överblick och logisk bearbetning.

När sammanfattningar går fel

Det fanns många AI-funktionsdemonstrationer på scenen på Google I/O, men viktigast är att de flesta av dem var förinspelade eller simulerade. Gemini sammanfattade alla senaste e-postmeddelanden i Gmail från en specifik skola. Det skapade också en sammanfattning av ett möte efter att ha analyserat samtalets ljudinspelning. Det är samma användningsfall som Microsoft har främjat för sin Copilot-assistent, och även om grundläggande sammanfattning har färre steg som kan gå fel, skulle jag fortfarande vara orolig för att använda den för viktiga möten eller meddelanden. Vad händer när Gemini misshör kommentarer från din chef om vilket projekt som ska prioriteras?

Google visade också upp sin vision för “Agenter” som beskrevs som AI-drivna hjälpare som kan “tänka flera steg framåt” och “arbete över programvara och system.” Det första exemplet var att be Gemini hjälpa till med att returnera ett par skor som beställts online— AI:n hittade fraktetiketten, kontaktade Converse för att starta returen och skapade en kalenderhändelse för ett pakethämtning med UPS. Ett annat exempel var att fråga Tvillingarna: “Jag har precis flyttat till Chicago, något jag borde tänka på?” Gemini föreslog sedan att uppdatera användarens adress i olika tjänster, och det slutförde uppgiften automatiskt i deras DoorDash-konto efter en enkel bekräftelse.

Demon som chockade mig mest var ett avsnitt om att använda Gemini i Gmail. Personen i exemplet behöver reparera taket på sitt hus och de ber Tvillingarna att hitta och sammanfatta de tre bud som skickats till deras e-postadress. Personen bestämmer vilken entreprenör som ska väljas helt baserat på sammanfattningen och skickar sedan ett svarsmail som också är AI-genererat.

Google

Reparationscitatet i exemplets e-postmeddelande varierade från $875 till $1500. Om Tvillingarna har en detalj fel, eller om den misslyckades med att inkludera viktig information i sammanfattningen, kan det bli ett mycket dyrt misstag. Jag kan inte tänka mig att någonsin använda AI-hjälp för att fatta den typen av beslut. Jag kan mycket väl göra ett misstag i samma situation, som att glömma att läsa ett meddelande i en e-postkedja eller blanda ihop siffror, men då skulle det åtminstone vara mitt eget fel. Hur är Gemini en förbättring?

Google kommer inte att stå för kostnaden för mitt trasiga tak eftersom Tvillingarna läste fel ett e-postmeddelande. Den kommer inte heller att återbetala mig när den skickar mina returnerade skor till fel adress. Google har lovat att täcka juridiska avgifter när dess AI-verktyg oundvikligen skapar innehåll för nära upphovsrättsskyddat material, men det handlar om det.

stark>

Jag har använt generativa AI-verktyg under det senaste året för att hjälpa mig med kodningsarbete, eller skriva bash-skript eller konvertera data mellan format. Nyckelfrasen där är “hjälp mig” eftersom jag fortfarande tittar på indata och kontrollerar resultaten. Google vill alltmer att generativ AI helt ska ta över uppgifter, och det är inget jag känner mig bekväm med, med tanke på teknikens nuvarande tillstånd.

Det har gjorts andra försök att använda generativ AI för att utföra verkliga uppgifter. OpenTable var ett av de första plugin-programmen för ChatGPT, vilket möjligen gör att du kan boka middagsbokningar via AI-chatboten. Du kan hitta några rapporter om att det inte fungerar, även om det är oklart om AI eller de underliggande API-integreringarna är skyldiga.

Lita inte på det h2>

Google, och många andra teknikföretag, vill sälja dig idén att generativ AI kan vara logisk och fatta korrekta beslut med tillräckligt med information. Generativ AI kan inte göra det. Det finns ingen AI just nu som kan tänka som du, jag eller någon annan människa. Det är därför Gemini, ChatGPT, Copilot och alla andra AI-assistenter kan skriva program men ändå misslyckas med grundläggande logiska problem. Gemini gjorde ett misstag i en demovideo idag på Google I/O, och det är inte ens första gången det hände.

Varför skulle jag lita på att Gemini fattar viktiga ekonomiska beslut för mig, eller någon annan verklig uppgift? Är det verkligen värt de potentiella problemen att spara några sekunder eller minuter med vardagliga uppgifter? Idén om att en chatbot som inte kan spela tic-tac-toe på något sätt skulle kunna automatisera mitt liv är inte alls tilltalande, oavsett hur exalterad Google än är över det.

Exit mobile version