Kanske borde Alexa och Google Assistant inte bli bättre på att förstå dig

0
164

& nbsp;

Lukmanazis /Shutterstock.com

Röstassistenter som Google Assistant och Alexa är en del av vardagen. De använder telefoner, bärbara datorer, väggar och styr smarta hem. Men de kan vara svåra att använda, särskilt för alla som talar “ ostandard ” Engelsk. Compies försöker lösa det problemet, men vad händer om det är dåligt?

Genom att göra röstassistenter i smarta hem och på smartphones lättare att använda kan företag faktiskt minska sina användare ’ förmåga att fungera i omvärlden. Det finns cirka 1,35 miljarder engelsktalande globalt, varav 400 miljoner är “ modersmål. ”

Så det är säkert att anta att ungefär 2/3 av de engelsktalande har en viss grad av accent bara för att det inte är deras första språk. Sedan med de 400 miljoner människor som talar engelska som förstaspråk har du flera nationella accenter (brittiska, kanadensiska, amerikanska, australiska, et al.). I varje land har du regionala dialekter och så vidare.

Om företag skulle välja och perfektionera en enda dialekt, säg American Standard English, skulle deras produkt bara kunna användas av en liten bråkdel av engelsktalande. Om de å andra sidan går för långt kan de beröva människor från vad som kan vara ett mycket användbart verktyg för att utveckla sina kommunikationskunskaper.

Hur försöker tekniska företag för att förbättra saker?

Tyler Nottley/Shutterstock.com

Röstassistenter har arbetat för att bättre förstå sina användare &#8217 ; kommandon så länge de har funnits. Microsoft, Apple, Google och Amazon är bland de stora namnen som har pumpat massor av resurser till sina respektive röstassistenter och vill göra dem så tillgängliga och frustrationsfria för så många människor som möjligt.

Detta har inneburit att man anställer personer med särskilda accenter för att spela in hundratals röstkommandon och konversationer, som sedan kan användas för att lära ut AI -dialekter. Under en av mina smalare månader bestämde jag mig för att ta in min sexiga norra accent och tillbringade timmar med att spela in hundratals till synes slumpmässiga ord och fraser för ett företag som heter Appen.

Det företaget tog sedan mina inspelningar och skickade dem till Amazon, Google, Microsoft eller vem som helst som betalade dem. Röstavsnitten används sedan teoretiskt för att förbättra vilken AI som företaget som köpte dem utvecklar.

Vissa röstassistenter kan till och med utbildas för att bättre förstå den exakta rösten för personen som använder den. Till skillnad från att vänta på att den stora tekniken ska öka sitt spel, ger detta omedelbara resultat och kan hjälpa din röstassistent noggrannhet avsevärt. Det gör det också möjligt för flera användare att komma åt sina smarta hemprofiler utan att behöva byta manuellt.

Så varför kan detta vara en dålig sak?

Juan Ci/Shutterstock.com < /figur>

Jag kan komma undan med att säga: “ Alexer, serruz ett larm för klockan åtta i morgon kommer yer, ” men att försöka begära låtar är där kampen verkligen börjar. Det tog cirka tre månader att kommunicera med Amazon Music och några tusen frustrerade utmaningar, men jag kan nu säga “ spela Happy Hour av The Housemartins ” lika tydligt som en BBC -nyhetsläsare från 1980 -talet. Det finns fortfarande tillfällen när jag ber om Paul Weller och på något sätt slutar med Ella Fitzgerald, men det finns alltid utrymme att förbättra.

Silverfodret som har kommit med accentkampen är det faktum att min engelska har förbättrats. Jag kan nu kommunicera tydligare än någonsin tidigare. Det här är användbart eftersom tekniken kan förbättras till den grad AI på min smartphone kan förstå mig, men det kommer inte göra mig så bra när jag använder telefonen för att prata med en annan människa.

En annan fördel är att jag inte helt har slaktat min accent i processen. Om jag hade valt att lägga ut för elokueringslektioner istället, kan jag skramla av meningar i mottaget uttal. Identitet är viktigt; accenter är en viktig del av någons kultur och bakgrund.

Storbritannien, till exempel, har en distinkt accent var några mil. Det finns en karta som har flugit runt på internet i några år som ser omfattande ut men fortfarande knappt repar ytan. En liten del av Nordöstra stämplas med en “ Teesside ” accent, men infödingarna i varje stad i det området (Middlesbrough, Hartlepool, Stockton och Billingham) talar alla olika.

Föreställ dig nu variationerna i ett län på storlek Yorkshire. Människor tenderar också att identifiera sig med var de kommer ifrån och bevara mycket av sin kultur. Accenter är en stor del av det; inte alla vill låta som Hugh Grant. Vi kan ha blivit bortskämda under de senaste åren, eftersom många nu är glada över att luta sig tillbaka och vänta på att tekniken ska kompensera för sina brister — och i många fall kommer det att göra just det. Men ibland är mötet med teknik i mitten både snabbare och bättre i längden.

Röstassistenter behöver göras tillgängliga för så många människor som möjligt. Om du var tvungen att tala perfekt mottaget uttal innan Siri skulle ge dig tid på dagen, skulle en av Apples mest betydande framgångar vara värdelös för över 99,9% av de engelsktalande.

Även något liknande en vanlig amerikansk accent skulle utesluta majoriteten av användarna i USA, oavsett världen. Därför är det uppenbart varför företag anstränger sig mycket för att lära sin programvara att förstå så många dialekter de kan. Och så borde de. Men de borde bara gå så långt.

Det vore bättre om Apple, Google, et al. undvika att anta en perfektionistisk mentalitet och istället bara sikta på en standard som möjliggör tillgänglighet men ändå kräver lite omsorg för användarna ’ del. På ett personligt sätt tvingade Alexa oviljan att lyssna på något annat än tydligt tal mig att tänka på hur jag uttalar saker.

Mitt tal är utan tvekan tydligare än innan jag var tvungen att hantera en röstassistent. flera gånger om dagen. Det var inget jag tänkt göra; det var en oavsiktlig och mycket fördelaktig bieffekt — och om det fungerade för mig kan det också fungera för andra människor.