Snabblänkar
- Figur 01
- Agility Robotics & Amazon's Digit
- Boston Dynamics Spot V.4 Update
- Tesla's Optimus Gen 2
- Stanford' s Mobil ALOHA
Medan alla är fixerade vid generativ AI och dess implikationer för kunskap och kreativt arbete, har robotik tyst närmat sig en liknande till synes plötslig framstegspunkt. År 2024 kan mycket väl gå till historien som starten på den verkliga AI-automatiseringsrevolutionen för fysiskt arbete, och även så här tidigt på året har det varit några fängslande demonstrationer.
Figur 01
Figure är en nystartad robotteknik som har lockat till sig en enorm mängd investeringar från stora teknikaktörer. Medan företaget har varit ganska reserverat med demos som visar dess humanoida robotprojekt, direkt designat för att komplettera mänsklig arbetskraftsbrist under de kommande åren, har alla varit häpnadsväckande. Den senaste demon när detta skrivs känns som en historisk vändpunkt.
I den ser vi roboten Figur 01 vid ett bord med föremål på. En människa samtalar sedan med roboten på ett naturligt språk, och den svarar med en perfekt mänsklig röst, relaterar vad den ser och utför uppgifter per begäran. Detta tack vare en kombination av Figures teknologi och mjukvara tillsammans med ett partnerskap med OpenAI som har förbättrat robotens resonemangsförmåga och maskinseende. Mest imponerande är att den kan ta reda på hur man utför uppgifter i farten.
Enligt figur är detta inte en redigerad eller klippt video, vilket känns troligt att vara sant tack vare de långa bearbetningspauserna som roboten "tänker" om vad vi ska göra eller säga härnäst, men som alltid har vi bara deras ord för detta tills dessa system gör det i tredje parts händer. Men siffran är på väg med dessa robotar, med försök som redan sker i samarbete med BMW.
Agility Robotics & Amazons siffra
Agility Robotics i samarbete med Amazon verkar ha samma allmänna idé som Figure när det kommer till deras humanoida robot. Tanken är att skapa en robot som kan passa in i samma utrymmen som mänskliga arbetare för närvarande upptar. Digit genomgår redan testning i riktiga Amazon-anläggningar, vilket vi har visats i den här videon.
Men kanske ännu mer imponerande var denna tidigare demo av Digit som visade sin resonemangsförmåga. Det som verkligen gör detta till en fantastisk demo är att vi kan se botens interna monolog och tankeprocesser när den dynamiskt resonerar sig igenom uppgiften den har getts muntligt.
Boston Dynamics Spot V.4-uppdatering
Du kan inte ha en lista med robotdemovideor utan Boston Dynamics på listan, förutom att den här gången tyvärr inte är en bedårande dansande robotvideo, men kanske något mycket mer imponerande. Boston Dynamics visar hur de har använt virtuella simuleringar och en form av maskininlärning känd som förstärkning för att ge sin Spot-robot en seriös uppgradering när det kommer till mobilitet. Förut förlitade sig Spot helt på en prediktiv modell finjusterad av Boston Dynamics för att förutsäga hur den skulle röra sig när den korsar terräng, men nu med den senaste uppdateringen använder den en hybrid av den modellen och en modell som tränats med förstärkning.
stark>
Slutresultatet är där den gamla versionen av Spot-programvaran snubblar och faller på lösa eller hala ytor, den senaste versionen kan hålla ihop den även när greppet inte finns eller terrängen är oförutsägbar. Det kanske inte är det fläckigaste någon visar upp, men det är en stor sak när du behöver robotar för att ta sig in på platser som inte erbjuder en perfekt förutsägbar miljö, som katastrofplatser eller dåligt väder.
Tesla's Optimus Gen 2
2021 skrev jag att Teslas föreslagna robot var helt vettig, och sedan dess har vi sakta sett mer och mer av hur långt det här projektet har kommit. Det som började som en mänsklig dansare i kostym är nu en fullt realiserad humanoid robotplattform. I Gen 2-demon ser vi "Optimus" visar mjuka människoliknande rörelser, går i en rimlig (om lugn) takt och gör det klassiska äggmanipuleringstricket med hjälp av fingertoppssensorer. En vanlig trop i videor av robotarmar i årtionden nu.
Videon är ganska imponerande, men det är inte klart vad som är autonomt, vad som är förprogrammerat och vad som är direkt teledrift. Att gå från att inte ha något att visa upp till en fungerande hårdvaruplattform på så kort tid är ändå värt att applådera. I ett annat klipp postat av Elon Musk på X (tidigare Twitter) kan vi se Optimus vika kläder, men Musk klargjorde då att detta inte görs autonomt ännu. Att få förhoppningar från lata människor överallt, bara för att slå ner dem igen,
Stanford's Mobile ALOHA
Robotarna vi har sett hittills ser ut att vara rätt från en 2000-tals sci-fi-film, men de kommer också med höga prislappar som kostar hundratusentals dollar.
Mobile ALOHA, som är ett projekt som Google och Stanford samarbetar om, tillhandahåller en mångsidig robotplattform för under 20 000 USD. Det låter som mycket, men om du tittar på demon av vad ALOHA kan göra, verkar det som ett fynd. En teleoperatör kan enkelt utföra komplexa fingerfärdiga uppgifter med denna barabensrobot, och den kan lära sig att utföra uppgifter självständigt genom att titta på demonstrationer av människor. Det bästa av allt är att hårdvaran och mjukvaran för ALOHA är öppen källkod, så jag förväntar mig många framsteg framåt för det eftersom många bidragsgivare från hela världen jobbar på att göra det bättre.
Året har knappast blivit något bra. börja, och redan nu ser det ut som att vi är inne på ännu fler häpnadsväckande automatiseringsdemonstrationer innan nästa semester rullar runt. Plötsligt känns robotdammsugaren inte så futuristisk, eller hur?
Leave a Reply
You must be logged in to post a comment.