Nyckelalternativ
- Generativa AI-sökmotorer kan erbjuda användbara svar, men förtroende är en viktig fråga på grund av oförutsägbarhet.
- Mänsklig tillsyn är fortfarande avgörande i sökresultaten för att säkerställa förtroende och noggrannhet.
- Även med avancerad AI är förtroende för teknik viktigare än prestandasiffror.
Generativ AI, åtminstone i framkant, är effektiv för att hitta, smälta och presentera information på ett användbart sätt för dem som letar efter svar. Men kan vi verkligen lita på denna teknik som den ser ut? Skulle vi i princip någonsin kunna lita på det?
Generativa AI-sökmotorer ger oroande resultat
Alla verkar lägga till AI i sina sökprodukter. Vissa, som Perplexity AI, har byggt hela sitt system kring generativ AI och stora språkmodeller (LLM). Etablerade sökoutfits, särskilt Bing och Google, har lagt till dessa tekniker till sina befintliga sökmotorer.
Till exempel erbjuder Google nu AI-sammanfattningar där LLM läser webbsidor så att du inte behöver det och ger dig ett direkt svar på din fråga. Bortsett från hur detta skär bort de faktiska webbplatserna som producerar innehållet, när det fungerar är det otroligt användbart. Men precis som AI-chatbotar är benägna att drabbas av "hallucinationer" eller gör logik- och resonemangsfel, kan AI-sökning falla offer för samma problem.
Detta har lett till att Google Search AI föreslår saker som att lägga lim på pizza och äta stenar och att det finns katter på månen. Google, å sin sida, går snabbt för att beskära dessa fel, men det åtgärdar inte det grundläggande problemet—förtroende.
Någon måste vara ansvarig för information i sökresultat
Tro det eller ej, jag är en riktig människa som sitter vid det här tangentbordet och skriver ord som du ska läsa. Det betyder att om du läser något här som inte är vettigt, eller som är falskt, eller som kan orsaka skada, har du någon som kan ta ansvar för det. På samma sätt, om jag använder information från till exempel Associated Press, och det finns allvarliga faktafel i det materialet, har jag tillvägagångssätt för att en människa någonstans på linjen gjorde ett misstag eller något annat gick fel för att förklara problemet.
Vi vet hur informationen togs fram och vi vet vem som var ansvarig. Det finns konsekvenser för att vara oaktsam, och det finns system (som mänskliga redaktörer och redaktionella policyer) som är avsedda att fånga upp problem innan de publiceras. Naturligtvis är inget av dessa system idiotsäkert, men någon är alltid ansvarig.
Hittills är generativa AI-system benägna att bete sig på ett sätt som inte ens deras skapare kan förutse. Dessa modeller med miljarder eller till och med biljoner parametrar är som svarta lådor där ingen exakt vet vad som händer inuti. Det är också därför de har så mycket löften och kraft, men det betyder att det är svårt att skapa en säker och pålitlig lösning.
Även om något som Googles Gemini var 99 % korrekt och pålitligt, har vi fortfarande ett problem. Naturligtvis är människor sällan så pålitliga själva, men vi har också sällan hastigheten och omfattningen för att våra fel ska kunna orsaka potentiellt stora skador. Tänk på att Google hanterar cirka 8,5 miljarder sökningar per dag. Om bara 1 % av dessa sökningar innehöll potentiellt skadlig information eller råd, lämnar det dig fortfarande med 85 miljoner människor som matas med något problematiskt. Varje dag!
Med andra ord är de standarder som krävs för att system som dessa ska erbjuda råd och information utan att någon människa är i kretsen så höga att det faktiskt kan vara omöjligt.
Om människor inte litar på AI-sökresultat spelar inte teknik någon roll < /h2>
Men vi kan prata om prestandasiffrorna för dessa AI-system hela dagen, och det kommer inte att göra någon skillnad om de inte uppfattas som pålitliga. Det finns många lovande tekniker som har hamnat i malpåse tack vare bristen på allmänhetens förtroende. Kärnkraftsolyckor har fått människor att vara försiktiga med kärnkraft. Hindenburg-tragedin satte den sista spiken i kistan för luftskepp, även om byte till helium från väte skulle göra en upprepning av det omöjligt. När din teknik väl uppfattas som opålitlig kan det vara nästan omöjligt att korrigera den uppfattningen, även om du faktiskt åtgärdar problemen.
Att hålla människor i slingan är oundvikligt oavsett hur smarta maskiner blir
< p> Oavsett hur bra AI-tekniker blir, kan de aldrig vara tillräckligt bra för att rättfärdiga att helt ta bort mänsklig tillsyn. Inte för att människor nödvändigtvis kommer att göra ett bättre jobb, utan för att jag tror att människor aldrig helt kommer att lita på dem. Vi tenderar att fokusera på undantagen snarare än regeln, vilket är anledningen till att folk spelar på lotteri!
I slutändan kan skapare av system som dessa inte tvätta sina händer på ansvar när dessa system orsakar skada. Bocken måste stanna någonstans, och människor måste ta ansvar på något sätt. Enskilda webbplatser kan hållas ansvariga för sitt innehåll, och tills dess har sökmotorer gjort ett bra jobb med att placera de mest pålitliga webbplatserna överst på listan. Det är en god cykel där vi försöker tillhandahålla högsta kvalitet, pålitligt innehåll vi kan och sökmotorer belönar oss med trafik, som finansierar mer innehåll och så vidare.
Nu riskerar AI-sammanfattningar av det innehållet att bryta cykeln som producerar tillförlitligt innehåll av hög kvalitet samtidigt som de potentiellt introducerar eller upprepar farlig eller vilseledande information. När du väl har förvandlat att hitta information på webben till ett spel rysk roulett, förvänta dig inte att folk som slår ner din dörr ska vara villiga spelare.
Leave a Reply
You must be logged in to post a comment.