Quick Links
- Googles Vision für die Zukunft der Suche basiert auf KI
- KI-Suche ist Googles Strategie zur Bekämpfung von Internet-Spam
- Das Problem bei der KI-Suche ist, dass sie halluziniert und Vertrauen untergräbt
- Mit KI-Übersichten gehen Nuancen verloren
- KI-Übersichten könnten das offene Internet zerstören
- Letzten Endes wollen die Leute menschliche Erfahrungen und Inhalte.
Google hat kürzlich angekündigt, dass es KI in die Suche integrieren wird, damit Sie die gewünschten Informationen leichter finden können, ohne sich zuerst durch einen Haufen wertloser Suchergebnisse wühlen zu müssen. Es gibt jedoch ein paar Gründe, warum das nicht funktionieren wird.
Googles Vision für die Zukunft der Suche basiert auf KI
Bei Google I/O 2024 stellte das Unternehmen „Suche in seiner Gemini-Ära“ vor – seine Art zu sagen, dass es KI in die Suche integriert. Dieser Schritt war nicht überraschend, da Google schon seit einiger Zeit mit der Idee einer KI-Suche durch Search Generative Experience spielt.
Auf der Konferenz präsentierte Google einige neue experimentelle KI-Funktionen wie Planung in der Suche, KI-organisierte Seiten und Videosuche. Das Highlight waren jedoch die KI-Übersichten.
Die Idee hinter den KI-Übersichten ist, dass Google das Googeln für Sie übernimmt, anstatt mehrere Webseiten zu durchsuchen, um die benötigten Informationen zusammenzutragen. Es zieht die wichtigsten Informationen aus den obersten Google-Ergebnissen und gibt Ihnen eine übersichtliche Zusammenfassung. Sie können die Darstellung dieser Antworten sogar optimieren, um sie klarer zu machen oder sie Schritt für Schritt aufzuschlüsseln.
AI Search ist Googles Strategie zur Bekämpfung von Internet-Spam
Ein wichtiger Grund, warum Google sich auf AI Search konzentriert, ist, dass das Unternehmen darin eine Lösung für eines seiner seit langem bestehenden Probleme sieht: Internet-Spam.
Seit der Gründung von Google befindet sich das Unternehmen in einem ständigen Wettlauf mit Internet-Spammern, die ständig versuchen, das System auszutricksen, um einen Teil des Internetverkehrs abzuzweigen. Jedes Mal, wenn Google seine Algorithmen verbessert, finden diese Spammer neue Wege, sie auszunutzen.
Ende 2022 änderte sich jedoch etwas, was das Kräfteverhältnis verschob. Open AI stellte sein generatives KI-Modell ChatGPT vor und lieferte damit unabsichtlich den Internet-Spammern die Nuklearcodes, die es ihnen ermöglichten, schnell und günstig Artikel zu produzieren. Diese Spam-Artikel mögen zwar nicht hoch ranken, aber sie trüben die Gewässer und machen Google für alle zu einer qualitativ schlechteren Erfahrung. Dies könnte auch erklären, warum sich das allgegenwärtige Gefühl, dass „Google stirbt“, in den letzten Monaten verstärkt hat.
Google hofft, dass AI Search die Lösung für dieses Problem sein wird, aber dieser Plan hat einige Probleme.
Das Problem bei der KI-Suche ist, dass sie halluziniert und Vertrauen untergräbt
Als Google erstmals ankündigte, dass es KI-Übersichten einführen würde, war mein erster Gedanke: „Was werden sie gegen das Halluzinationsproblem tun?“
Die Antwort war: nicht sehr viel. Kurz nachdem KI-Übersichten angekündigt wurden, bemerkten die Leute, dass einer der Vorschläge im Demo-Video als Antwort auf eine Frage, wie man eine kaputte Filmkamera repariert, eher alle Ihre Fotos ruinierte, als das Problem zu lösen.
Aber damit war es noch nicht getan. Kurz nachdem die KI-Übersichten veröffentlicht wurden, bemerkten die Leute, dass einige der Antworten lächerlich oder sogar schädlich waren. So wurde beispielsweise vorgeschlagen, Benzin zum Kochen von Spaghetti zu verwenden und täglich mindestens zwei Liter Urin zu trinken.
Aber was soll's? Jeder weiß, dass man nicht alles glauben sollte, was man im Internet sieht, und auch andere Chatbots erfinden Sachen. Warum ist das also so wichtig?
Das ist der Punkt: KI-Halluzinationen bei der Suche werfen ein Vertrauensproblem auf. Es ist eine Sache, wenn ein neuer experimenteller KI-Chatbot Sie gelegentlich anlügt und Informationen erfindet. Eine ganz andere Sache ist es, wenn Google dies tut, weil die Menschen Google vertrauen.
Google sagt, dass es die merkwürdigen Ergebnisse von AI Overviews behoben und zusätzliche Sicherheitsvorkehrungen getroffen hat, aber ich bin immer noch skeptisch. Einige Experten glauben sogar, dass Halluzinationen nicht behoben werden können und ein grundlegender Bestandteil von LLMs sind. Wenn das stimmt, könnten wir in ein Internetzeitalter eintreten, in dem man online wirklich nichts mehr vertrauen kann, nicht einmal seiner Suchmaschine.
Verlust der Nuancen bei AI Overviews
Googles AI Overviews generiert Antworten nicht nur auf Grundlage seiner Trainingsdaten. Es konsultiert auch die Top-Webseiten bei Google. Dies soll helfen, Halluzinationen zu vermeiden, wirft aber auch ein neues Kontext- und Nuancenproblem auf.
Wir haben dies bereits bei der viralen Anfrage „Wie verhindere ich, dass der Käse von der Pizza rutscht?“ gesehen, bei der die KI vorschlug, der Pizza Klebstoff beizufügen. Diese Antwort entnahm sie einem 11 Jahre alten Reddit-Beitrag, den jeder im ursprünglichen Kontext leicht als Scherz oder Trollkommentar abtun würde. Googles KI-Übersichten befreit sie jedoch von dieser Nuance und präsentiert sie als harte Tatsache in derselben autoritativen Art und Weise, wie sie andere Optionen vorschlägt.
Ein weiteres Beispiel ist die Empfehlung der KI, täglich mindestens einen kleinen Stein zu essen. Auch diese Information wurde von Googles KI-Übersichten aus ihrer Quelle gerissen – in diesem Fall einem satirischen Onion-Artikel –, sie aus ihrem Kontext gerissen und als harte Tatsache präsentiert.
Dies sind offensichtliche Fehler, die man leicht als harmlos abtun kann. Aber was passiert, wenn AI Overviews das nächste Mal etwas Wichtiges subtil falsch interpretiert, das nicht so leicht zu erkennen ist?
AI Overviews könnten das offene Internet zerstören
KI-Übersichten bedrohen die gesamte Geschäftsstruktur des Internets. Websites sind auf Werbeeinnahmen angewiesen, um Gewinn zu machen, und diese Werbeeinnahmen sind vom Datenverkehr abhängig. Daher haben Websites einen Anreiz, großartige Inhalte zu erstellen, die die Leute dazu bringen, die Website zu besuchen.
KI-Übersichten bringen diese Struktur durcheinander, wenn sie Informationen direkt von Websites beziehen. Jetzt ist es nicht mehr nötig, dass Sie eine Website tatsächlich besuchen, wodurch der Datenverkehr und die Werbeeinnahmen reduziert werden. Die natürliche Weiterentwicklung könnte sein, dass Websites gezwungen sind, ihre Inhalte hinter Paywalls zu sperren, um im Geschäft zu bleiben.
Google behauptet, dass Links in AI-Übersichten mehr Klicks erhalten als herkömmliche Einträge, hat jedoch keine Daten zur Untermauerung dieser Aussage bereitgestellt. Es erscheint auch unwahrscheinlich, wenn man bedenkt, dass diese Links ganz unten in den AI-Übersichtsergebnissen vergraben sind. Selbst wenn dies für Seiten mit niedrigerem Ranking zutrifft, ist es bei Top-Ergebnissen schwer zu glauben.
Was passiert mit dem Internet, wenn Inhalte hinter Paywalls gesperrt werden, um zu überleben? Manche sagen, dies könnte zur Theorie des toten Internets führen, bei der vom offenen Web nur noch ein Haufen LLMs übrig bleibt, die endlos gegenseitig ihre Inhalte recyceln, bis das Internet nur noch ein nicht wiederzuerkennender Eintopf aus Wortvorhersagen ist.
Letztlich wollen die Menschen menschliche Erfahrungen und Inhalte
Google hat gute Absichten mit AI Overviews. Das Problem ist jedoch, dass sie grundsätzlich missverstehen, was die Menschen von der Suche wollen: Authentizität.
Die Menschen haben genug von generischen Inhalten. Sie wollen echte menschliche Erfahrungen und nicht nur wiedergekäute Ratschläge. Deshalb durchsuchen immer mehr Menschen Reddit in der Hoffnung, Meinungen von echten Menschen zu finden, die echte Einsicht in ihre Probleme haben.
Statt mehr KI wäre für die Zukunft der Suche vielleicht ein Algorithmus besser geeignet, der authentische Inhalte und echte Erlebnisse belohnt.
Leave a Reply
You must be logged in to post a comment.