Googles Projekt Astra könnte ein iPhone-Moment für Smart Glasses werden

Quick Links

  • Mit Project Astra ist die Zeit reif für die nächste Generation von Google Glass
  • Smart Glasses könnten eines Tages die einzige Technologie sein, die Sie brauchen
  • Google sollte zukünftige Smart Glasses mit bestimmten Datenschutzfunktionen ausstatten

Zusammenfassung

  • Googles Projekt Astra könnte Smart Glasses mit KI-Assistenzfunktionen revolutionieren.
  • Zukünftige Brillen könnten alle Telefon-Apps mit Sprachbefehlen steuern, sodass wir unsere Telefone nicht mehr ständig benutzen müssen.
  • Mögliche Datenschutzfunktionen wie Anzeigen für Aufzeichnungs- und Fahrverbote sind für die nächste Generation von Smart Glasses von entscheidender Bedeutung.

Google hat kürzlich sein Projekt Astra vorgestellt, eine frühe Demo, wie ein zukünftiger KI-gestützter Universalassistent aussehen könnte. Gegen Ende der Demo setzt der Google-Mitarbeiter eine Brille auf und unterhält sich nahtlos weiter mit dem Assistenten. Ich denke, Smart Glasses haben gerade ihr Killer-Feature gefunden.

&#x2715 Anzeigen entfernen

Mit Projekt Astra ist die Zeit reif für die nächste Generation von Google Glass

Google Glass ist mittlerweile ein altes Stück Technik, aber wir können alle sagen, dass es seiner Zeit voraus war. Die Sache ist, dass es 2013 die Technologie, die Smart Glasses wirklich nützlich machen könnte, einfach nicht gab. Aber mit Project Astra könnte Google Glass endlich seinen iPhone-Moment haben.

Abgesehen von ethischen Fragen: Wenn es Google und DeepMind gelingt, Halluzinationen einzudämmen, nicht vollständig, aber gerade genug, um das grundlegende Modell hinter dem Assistenten im entscheidenden Moment zuverlässig genug zu machen, könnten wir einen richtigen KI-Assistenten in unseren Händen und auf unseren Telefonen haben. Ich denke jedoch, dass die perfekte Art, einen Assistenten zu nutzen, mit dem man frei kommunizieren kann, nicht mit dem Telefon, sondern mit der Stimme ist.

Eine Möglichkeit wäre, eine Smartwatch zu verwenden, aber Sie müssten Ihren Arm jedes Mal zum Gesicht bewegen, wenn Sie einen Befehl erteilen oder der zukünftigen Version von Gemini etwas fragen möchten. Aber eine leichte, intelligente Brille mit einer Kamera, mit der Ihr KI-Assistent die Welt sehen kann, die Sie sehen, und einem Mikrofon, das Sie hört, könnte die Spielregeln ändern – eine Killerfunktion, nach der intelligente Brillen seit 2013 gesucht haben. Die nächste Generation von Google Glass könnte eine neue Ära des Personal Computing einläuten.

&#x2715 Anzeigen entfernen

Stellen Sie sich vor, Sie tragen eine Smart Glasses, die mit einem HUD ausgestattet ist, das Ihnen Nachrichten, Termine, Google-Suchergebnisse in Textform, das Lied, das Sie gerade hören, sowie den Rest der Playlist und andere textbasierte Informationen anzeigt. Dies könnte die Welt der persönlichen Computeranforderungen grundlegend verändern. Smartphones sind ohnehin zu Gebrauchsgegenständen geworden, warum also nicht in unsere Taschen stecken und sie dort lassen?

Smart Glasses könnten eines Tages die einzige Technologie sein, die Sie brauchen

Obwohl die Demo von Project Astra in der Tat beeindruckend ist, müssen Google und DeepMind noch viele Probleme lösen – ob diese Probleme überhaupt lösbar sind, ist noch eine offene Frage – und es müssen noch zahlreiche Fortschritte erzielt werden, bevor die nächste Generation des Gemini-KI-Assistenten der Öffentlichkeit vorgestellt wird. Aber das Endergebnis könnte uns endlich von unseren Telefonen befreien. Diesmal wirklich. In fünf Jahren könnte jeder eine Brille tragen, anstatt ständig auf sein Telefon zu schauen.

&#x2715 Werbung entfernen

Dieser KI-Assistent der Zukunft sollte nicht nur Ihre Fragen beantworten, sondern auch in der Lage sein, Ihre Telefon-Apps in Ihrem Namen zu bedienen. Ich spreche nicht nur von Google-Apps, ich spreche von allen Apps. Spotify, die Kamera-App, die Wetter-App, die Sie verwenden, Ihre Lieblings-App für Essenslieferungen, Instagram, Slack, der Rest Ihrer Chat-Apps, das volle Programm.

Wenn man darüber nachdenkt, macht das Sinn. Wenn Sie Zugriff auf einen äußerst vielseitigen, universellen KI-Assistenten haben, der Sie ständig begleitet, sollte dieser virtuelle Assistent in der Lage sein, jede einzelne App auf Ihrem Telefon zu bedienen. Außerdem möchten Sie, wenn Sie bereits eine Smartbrille tragen, unterwegs nicht ständig zwischen mehreren Geräten jonglieren.

Natürlich macht es mir nichts aus, beim Eintippen dieses Textes mein Telefon in die Hand zu nehmen, um eine neue Nachricht zu lesen, aber wenn ich unterwegs bin und Musik höre, während ich meine mit meinem Telefon verbundenen Smart Glasses trage, möchte ich mein Telefon nicht herausnehmen, um das Lied zu wechseln, nachzuschauen, wann das nächste Spiel meiner Lieblingssportmannschaft beginnt, eine schnelle Google-Suche durchzuführen, die Öffnungszeiten des nahegelegenen Fast-Food-Restaurants zu prüfen oder schnell eine Textnachricht zu schreiben. Wenn ich bereits einen KI-Assistenten auf meinem Telefon habe und damit einverstanden bin, dass er Dinge für mich erledigt, möchte ich, dass er alle telefonbezogenen Aufgaben für mich übernimmt.

&#x2715 Anzeigen entfernen

Damit das passiert, muss Google höchstwahrscheinlich eine neue Art von multimodalem Basismodell entwickeln. Eines, das Sprach- und Tippbefehle versteht – viele Menschen tippen lieber als zu sprechen – und diese Befehle dann verwendet, um Ihre Telefon-Apps für Sie zu steuern.

Dieses zukünftige KI-Modell wäre eine Art Gemini-Subroutine, die mit ihm kommuniziert und Befehle basierend auf Ihren Sprachbefehlen ausführt. Da diese Art von Modell nicht so vielseitig sein muss wie aktuelle LLMs, könnte es auf Ihrem Telefon gespeichert werden und benötigt keine Cloud, um zu funktionieren, wodurch das Datenschutzproblem gelöst wird. Natürlich gibt es hier noch viel mehr zum Thema Datenschutz zu sagen, aber das geht über den Rahmen dieses Artikels hinaus.

Und wenn die Technik eines Tages weit genug fortgeschritten ist, könnte man Gemini und seine App-steuernde Subroutine mit Google Glass 3.0 oder wie auch immer diese heißen wird, verbinden, und die Brille könnte ein echtes AR-fähiges Display haben, direkt aus der Zukunft. Dank der App-steuernden Assistenz-Subroutine könnten wir nicht nur vollständig mit unseren Telefonen interagieren, sondern auch Videos ansehen, durch unsere Reddit- und Instagram-Feeds scrollen, Fotos und Videos mit unseren Brillen machen und dabei unsere Telefone nie aus der Tasche nehmen.

&#x2715 Anzeigen entfernen

Unsere Telefone könnten sich in eine Art „Computerstation“ verwandeln, in der unsere Brillen im Mittelpunkt stehen. Smartphones werden weiterhin die Motoren für all diese Computerarbeit sein, aber sie werden das hinter den Kulissen tun.

Google sollte zukünftige Smart Glasses mit bestimmten Datenschutzfunktionen ausstatten

Eines der am meisten diskutierten Probleme mit der ursprünglichen Google Glass war damals, wie sehr sie die Privatsphäre verletzte. Im Jahr 2013 waren die Leute es nicht gewohnt, dass andere Leute Kameras auf dem Kopf trugen und ständig damit filmten. Aber seitdem hat sich viel geändert – im Guten wie im Schlechten.

Heutzutage gibt es überall GoPros, Tausende von Live-Streams von Menschen, die in den größten Städten der Welt unterwegs sind, jeder macht ständig Selfies und filmt sich selbst in der Öffentlichkeit, die Feeds sozialer Netzwerke sind bis zum Rand gefüllt mit öffentlichen Videos und Fotos und es besteht eine gute Chance, dass jeder Schritt, den Sie außerhalb Ihres Zuhauses machen – und bei vielen von uns sogar drinnen – von den zahlreichen Überwachungskameras gefilmt wird, die man an jeder Ecke findet.

&#x2715 Werbung entfernen

Und vergessen wir nicht, dass sich viele von uns daran gewöhnt haben, dass große Unternehmen unsere Daten für Werbung oder andere Zwecke verwenden, was eine traurige, aber unbestreitbare Realität ist. Wenn Google Glass im Jahr 2024 auf den Markt käme, würde niemand mit der Wimper zucken.

Wenn Google jedoch plant, uns die nächste Generation von Google Glass vorzustellen, sollte sich das Unternehmen ein Beispiel an Humane nehmen – trotz aller Mängel hat die AI Pin ein ziemlich solides Verständnis für den Datenschutz – und die Smart Glasses mit bestimmten Datenschutzfunktionen ausstatten.

Beispielsweise könnte der Rahmen oder ein Teil davon beim Aufnehmen von Fotos und Videos aufleuchten, und es sollte die Anforderung bestehen, den Rahmen während der Audioaufnahme festzuhalten. Außerdem bin ich mir sicher, dass es für manche Leute sehr verlockend wäre, während der Fahrt ihre Social-Media-Feeds ansehen zu können. Deshalb sollte Google seinen kontextsensitiven KI-Assistenten verwenden, um das HUD während der Fahrt zu deaktivieren. Der virtuelle Assistent sollte Ihnen nur Ihre eingehenden SMS und E-Mails vorlesen und Ihnen erlauben, zu antworten, und sonst nichts. Ich bin mir auch sicher, dass viele Unternehmen das Tragen von Brillen auf ihrem Gelände verbieten werden, wenn man Industriespionage und dergleichen bedenkt. Aber solange Sie sie tragen, sollten andere wissen, ob sie aufgezeichnet werden.

&#x2715 Anzeigen entfernen

Obwohl es offensichtlich ist, dass sich Googles Projekt Astra noch in der Anfangsphase befindet, ist das Potenzial definitiv vorhanden. Wenn wir tatsächlich einen super vielseitigen KI-Assistenten bekommen, kann ich mir keine andere Zukunft vorstellen als eine, in der wir alle eine Brille tragen.


Posted

in

by

Tags:

Comments

Leave a Reply