Misschien zouden Alexa en Google Assistant niet beter moeten worden in het begrijpen van jou

0
153

 

Lukmanazis/Shutterstock.com

Spraakassistenten zoals Google Assistant en Alexa maken deel uit van het dagelijks leven. Ze zitten op telefoons, laptops, muren en bedienen slimme huizen. Maar ze kunnen moeilijk te gebruiken zijn, vooral voor iedereen die “niet-standaard” Engels. Compies proberen dat probleem op te lossen, maar wat als dat een slechte zaak is?

Door spraakassistenten in slimme huizen en op smartphones gebruiksvriendelijker te maken, kunnen bedrijven hun aantal gebruikers zelfs verminderen’ vermogen om in de wijdere wereld te functioneren. Er zijn wereldwijd ongeveer 1,35 miljard Engelssprekenden, waarvan 400 miljoen “native speakers.”

Het is dus veilig om aan te nemen dat ongeveer 2/3 van de Engelstaligen een bepaald accent heeft, puur omdat het niet hun eerste taal is. Dan heb je met de 400 miljoen mensen die Engels als eerste taal spreken, meerdere nationale accenten (Brits, Canadees, Amerikaans, Australisch, et al.). In elk land heb je regionale dialecten, enzovoort.

Als bedrijven één enkel dialect zouden kiezen en perfectioneren, bijvoorbeeld Amerikaans StandaardEngels, zou hun product slechts door een klein deel van de Engelssprekenden kunnen worden gebruikt. Omgekeerd, als ze te ver gaan, kunnen ze mensen beroven van wat een zeer nuttig hulpmiddel zou kunnen zijn om hun communicatieve vaardigheden te ontwikkelen.

Hoe proberen technische bedrijven het om dingen te verbeteren?

Tyler Nottley/Shutterstock.com

Voice-assistenten hebben gewerkt om hun gebruikers beter te begrijpen'8217 ; commando's zolang ze bestaan. Microsoft, Apple, Google en Amazon behoren tot de grote namen die heel veel middelen in hun respectievelijke spraakassistenten hebben gepompt en ze zo toegankelijk en frustratievrij willen maken voor zoveel mogelijk mensen.

Dit hield in dat mensen met bepaalde accenten werden ingehuurd om honderden spraakopdrachten en gesprekken op te nemen, die vervolgens kunnen worden gebruikt om AI-dialecten te leren. Tijdens een van mijn magere maanden besloot ik mijn sexy noordelijke accent te verzilveren en besteedde ik uren aan het opnemen van honderden schijnbaar willekeurige woorden en zinnen voor een bedrijf genaamd Appen.

Dat bedrijf nam vervolgens mijn opnames en stuurde ze naar Amazon, Google, Microsoft of wie dan ook die ze betaalde. De spraakfragmenten worden vervolgens in theorie gebruikt om de AI te verbeteren die het bedrijf dat ze heeft gekocht aan het ontwikkelen is.

Sommige spraakassistenten kunnen zelfs worden getraind om de exacte stem van de persoon die het gebruikt beter te begrijpen. In tegenstelling tot wachten tot grote techneuten hun spel verbeteren, levert dit onmiddellijke resultaten op en kan de nauwkeurigheid van uw stemassistent aanzienlijk worden verbeterd. Het geeft ook meerdere gebruikers toegang tot hun smart home-profielen zonder handmatig te hoeven schakelen.

Dus, waarom zou dit een slechte zaak kunnen zijn?

Juan Ci/Shutterstock.com< /figuur>

Ik zou kunnen wegkomen met te zeggen: “Alexer, geef een alarm voor acht uur morgen zal je,” maar proberen om liedjes aan te vragen is waar de strijd echt begint. Het kostte ongeveer drie maanden communiceren met Amazon Music en een paar duizend gefrustreerde krachttermen, maar ik kan nu zeggen “speel Happy Hour van The Housemartins” zo duidelijk als een BBC-nieuwslezer uit de jaren 80. Er zijn nog steeds momenten waarop ik om Paul Weller vraag en op de een of andere manier bij Ella Fitzgerald terechtkom, maar er is altijd ruimte voor verbetering.

De zilveren voering die met de accentstrijd is gekomen, is het feit dat mijn Engels is verbeterd. Ik kan nu duidelijker communiceren dan ooit tevoren. Dit is handig omdat de technologie zo ver kan verbeteren dat de AI op mijn smartphone me kan begrijpen, maar dat zal me niet veel goeds doen als ik die telefoon gebruik om met een ander mens te praten. p>

Een ander voordeel is dat ik mijn accent daarbij niet helemaal heb afgeslacht. Als ik ervoor had gekozen om in plaats daarvan dictielessen te nemen, zou ik zinnen in de ontvangen uitspraak kunnen ratelen. Identiteit is belangrijk; accenten zijn een belangrijk onderdeel van iemands cultuur en achtergrond.

Het Verenigd Koninkrijk heeft bijvoorbeeld om de paar kilometer een duidelijk accent. Er is een kaart die al een paar jaar over het internet vliegt en die er uitgebreid uitziet, maar nog steeds nauwelijks krast. Een klein deel van het noordoosten wordt bestempeld als een “Teesside” accent, maar de inwoners van elke stad in dat gebied (Middlesbrough, Hartlepool, Stockton en Billingham) spreken allemaal anders.

Stel je nu de variaties voor in een graafschap zo groot als Yorkshire. Mensen hebben ook de neiging zich te identificeren met waar ze vandaan komen en veel van hun cultuur te behouden. Accenten maken daar een groot deel van uit; niet iedereen wil klinken als Hugh Grant. We zijn de afgelopen jaren misschien verwend geweest, omdat veel mensen nu blij zijn om achterover te leunen en te wachten tot technologie hun tekortkomingen goedmaakt—en in veel gevallen zal het precies dat doen. Maar soms is een ontmoeting met technologie in het midden zowel sneller als op de lange termijn beter.

Spraakassistenten moeten wel voor zoveel mogelijk mensen toegankelijk worden gemaakt. Als je in perfect ontvangen uitspraak moest spreken voordat Siri je de tijd van de dag zou geven, zou een van de belangrijkste successen van Apple nutteloos zijn voor meer dan 99,9% van de Engelstaligen.

Zelfs zoiets als een standaard Amerikaans accent zou de meerderheid van de gebruikers in de Verenigde Staten uitsluiten, laat staan ​​wereldwijd. Daarom is het duidelijk waarom bedrijven veel moeite doen om hun software zoveel mogelijk dialecten te leren begrijpen. En dat zouden ze ook moeten doen. Maar ze zouden alleen zo ver moeten gaan.

Het zou beter zijn als Apple, Google, et al. vermijd het aannemen van een perfectionistische mentaliteit en streef in plaats daarvan naar een standaard die toegankelijkheid mogelijk maakt, maar toch een beetje zorg van de gebruikers vereist’ deel. Op een persoonlijke noot, Alexa's onwil om naar iets anders te luisteren dan duidelijke spraak dwong me om na te denken over hoe ik dingen uitspreek.

Mijn spraak is ongetwijfeld duidelijker dan voorheen. Ik had te maken met een stemassistent meerdere keren per dag. Het was niet iets wat ik van plan was te doen; het was een onbedoeld en zeer gunstig neveneffect en als het voor mij werkte, zou het ook voor andere mensen kunnen werken.