Snabblänkar
- Med Project Astra är det dags för nästa generation av Google Glass
< ul class="table-content-level-1">
- < li>Google bör utrusta framtida smarta glasögon med vissa integritetsfunktioner
Nyckelalternativ
- Googles projekt Astra kan revolutionera smarta glasögon med AI-assistentfunktioner.
- Framtida glasögon skulle kunna styra alla telefonappar med röstkommandon, vilket gör att vi slipper att ständigt använda våra telefoner.
- Potentiella sekretessfunktioner som indikatorer för inspelning och körrestriktioner är avgörande för nästa generations smarta glasögon.
Google delade nyligen sitt Project Astra, en tidig demo av hur en framtida AI-driven universell assistent kan se ut. Nära slutet av demon tar Google-anställda på sig ett par glasögon och fortsätter sömlöst att konversera med assistenten. Jag tror att smarta glasögon precis har hittat sin mördarfunktion.
Med Project Astra är det dags för nästa generation av Google Glass
Vid det här laget är Google Glass en gammal teknik, men vi kan alla säga att det var före sin tid. Saken är att redan 2013 fanns tekniken som kunde göra smarta glasögon faktiskt användbara bara inte där. Men med Project Astra kunde Google Glass äntligen få sitt iPhone-ögonblick.
Bortsett från etiska frågor, om Google och DeepMind lyckas tygla hallucinationer, inte fullt ut men bara tillräckligt för att göra grundmodellen bakom assistenten tillräckligt pålitlig när det gäller, skulle vi kunna ha en ordentlig AI-assistent till hands och på våra telefoner. Jag tror dock att det perfekta sättet att använda en assistent som du fritt kan prata med inte är med din telefon, det är med din röst.
Ett alternativ här är att använda en smartklocka, men du måste flytta armen mot ansiktet varje gång du vill utfärda ett kommando eller fråga den framtida versionen av Gemini något. Men ett par lätta, smarta glasögon som har en kamera för din AI-assistent för att se världen du ser och en mikrofon för att höra dig, kan vara en spelväxlare—en fantastisk funktion som smarta glasögon har letat efter sedan 2013 Nästa generation av Google Glass kan förebåda en ny era av personlig datoranvändning.
Föreställ dig bara att du bär smarta glasögon utrustade med en HUD som är tillräckligt avancerad för att visa dig meddelanden, möten, Googles sökresultat i textform, låten du lyssnar på samt resten av spellistan och annan textbaserad information. Detta kan vara en omvälvning av världen av personliga datorbehov. Smartphones har ändå förvandlats till varor, så varför inte stoppa dem i våra fickor och låta dem stanna där?
Smarta glasögon kan en dag bli den enda tekniken du behöver
< p>Även om Project Astra-demon verkligen är imponerande, har Google och DeepMind många problem att lösa—om dessa problem överhuvudtaget går att lösa är fortfarande en öppen fråga—och det finns många framsteg att göra innan de släpper nästa generation av Gemini AI-assistenten till offentlig. Men slutresultatet kan äntligen befria oss från våra telefoner. På riktigt den här gången. Om fem år kan alla ha glasögon på sig istället för att alltid kolla sina telefoner.
Den här framtidens AI-assistent ska inte bara svara på dina frågor, den ska också kunna hantera dina telefonappar för din räkning. Jag pratar inte bara om Google-appar, jag pratar om alla appar. Spotify, kameraappen, väderappen du använder, din favoritapp för matleverans, Instagram, Slack, resten av dina chattappar, hela nio yards.
När man tänker efter är det vettigt. Om du har tillgång till en mycket mångsidig, universell AI-assistent som är med dig hela tiden, borde nämnda virtuella assistent kunna hantera varenda app du har på din telefon. Dessutom, om du redan har smarta glasögon, skulle du inte vilja ständigt jonglera mellan flera enheter när du är på resande fot.
Visst, jag har inget emot att ta upp min telefon för att kolla in ett nytt meddelande medan jag skriver den här texten, men när jag är ute och lyssnar på musik medan jag har mina smarta glasögon anslutna till min telefon, vill jag inte ta ut min telefon för att byta låt, se när nästa match för mitt favoritidrottslag startar, gör en snabb Google-sökning, kolla arbetstiderna för den närliggande snabbmatsrestaurangen eller skriv ett snabbt textmeddelande. Om jag redan har en AI-assistent på min telefon, och jag mår bra av att den gör saker åt mig, skulle jag vilja att den sköter alla telefonrelaterade uppgifter för min räkning.
För att det ska hända måste Google med största sannolikhet skapa en ny typ av multimodal grundmodell. En som kan förstå röst- och skrivkommandon—många människor föredrar att skriva framför att tala—och sedan använda dessa kommandon för att styra dina telefonappar åt dig.
Denna framtida AI-modell skulle vara en sorts Gemini-subrutin som kommunicerar med den och utför kommandon baserat på dina röstkommandon. Eftersom den här typen av modell inte behöver vara lika mångsidig som nuvarande LLM, kan den finnas på din telefon och inte kräva att molnet fungerar, vilket löser integritetsproblemet. Naturligtvis finns det mycket mer att prata om integritet här, men det ligger utanför den här artikelns räckvidd.
Dessutom, en dag när tekniken blir tillräckligt avancerad, kan du ha Gemini och dess app-kontrollerande subrutin kopplade till din Google Glass 3.0 eller vad de nu kallas, och glasögonen kan ha en ordentlig AR-kompatibel display, direkt från framtida. Vi kunde inte bara interagera fullt ut med våra telefoner tack vare den appkontrollerande assistentsubrutinen, vi kunde också titta på videor, bläddra i våra Reddit- och Instagram-flöden, ta foton och filma med våra glasögon och aldrig ta upp våra telefoner ur fickan.
Våra telefoner kan förvandlas till en sorts “datorstation” med våra glasögon i centrum. Smartphones kommer fortfarande att vara motorerna som driver all den datoranvändningen, men de kommer att göra det bakom kulisserna.
Google bör utrusta framtida smarta glasögon med vissa sekretessfunktioner
Ett av de mest omtalade problemen med det ursprungliga Google Glass förr i tiden var hur integritetskränkande de var. Redan 2013 var folk inte vana vid att andra människor bar kameror på huvudet och ständigt spelade in med dem. Men mycket har förändrats sedan dess—på gott och ont.
Nuförtiden har du GoPros överallt, tusentals liveströmmar av människor som går runt i världens största städer, alla tar ständigt selfies och filmar sig själva offentligt, sociala nätverksflöden är fyllda till brädden med offentliga videor och foton, och det finns en god chans att varje steg du tar utanför ditt hem—och för många av oss, även inuti—filmas av mängden säkerhetskameror som finns i varje hörn.
Och låt oss inte glömma att många av oss har vant oss vid att stora företag använder vår data för reklam eller andra ändamål, vilket är en sorglig men obestridlig verklighet. Om Google Glass debuterade 2024 skulle ingen slå ett öga.
Ändå, om Google planerar att släppa nästa generation av Google Glass på oss, bör företaget ta en sida från Humane—för alla dess fel har AI Pin ett ganska gediget grepp om integritet—och utrusta de smarta glasögonen med vissa sekretessfunktioner .
Ramen, eller en del av den, kan till exempel lysa när du tar foton och filmer, och det borde finnas ett krav på att hålla i ramen när du spelar in ljud. Sedan är jag säker på att det skulle vara väldigt lockande för vissa människor att kunna titta på ditt sociala mediaflöde medan du kör, så Google borde använda sin kontextmedvetna AI-assistent för att inaktivera HUD under körning. Den virtuella assistenten ska bara kunna läsa dina inkommande sms och e-postmeddelanden för dig, låta dig svara och inget mer. Jag är också säker på att många företag kommer att förbjuda att använda glasögon när de är i sina lokaler, med tanke på industrispionage och all den där jazzen. Men så länge du bär dem bör andra vara medvetna om om de spelas in.
Även om det är uppenbart att Googles Project Astra fortfarande är i ett tidigt skede, finns potentialen definitivt där. Om vi får en supermångsidig AI-assistent kan jag inte se någon annan framtid än en där vi alla är glasögonglasögon.
Leave a Reply
You must be logged in to post a comment.