Vielleicht sollten Alexa und Google Assistant Sie nicht besser verstehen

0
153

 

Lukmanazis/Shutterstock.com

Sprachassistenten wie Google Assistant und Alexa gehören zum Alltag. Sie sind auf Telefonen, Laptops, Wänden und steuern Smart Homes. Sie können jedoch schwierig zu verwenden sein, insbesondere für jeden, der “Nicht-Standard” Englisch. Compies versuchen, dieses Problem zu beheben, aber was ist, wenn das schlecht ist?

Durch die benutzerfreundlichere Nutzung von Sprachassistenten in Smart Homes und auf Smartphones können Unternehmen ihre Nutzerzahlen möglicherweise sogar verringern&8217; Fähigkeit, in der weiten Welt zu funktionieren. Weltweit sprechen etwa 1,35 Milliarden Englisch, davon 400 Millionen “Muttersprachler.”

Es ist also sicher davon auszugehen, dass etwa 2/3 der Englischsprecher einen gewissen Akzent haben, nur weil es nicht ihre Muttersprache ist. Dann haben Sie bei den 400 Millionen Menschen, die Englisch als Muttersprache sprechen, mehrere nationale Akzente (britisch, kanadisch, amerikanisch, australisch usw.). In jedem Land gibt es regionale Dialekte und so weiter.

Wenn Unternehmen einen einzelnen Dialekt auswählen und perfektionieren würden, beispielsweise American Standard English, könnte ihr Produkt nur von einem winzigen Bruchteil der Englischsprachigen verwendet werden. Wenn sie dagegen zu weit gehen, könnten sie den Menschen ein sehr nützliches Werkzeug für die Entwicklung ihrer Kommunikationsfähigkeiten rauben.

Wie versuchen Technologieunternehmen? Dinge zu verbessern?

Tyler Nottley/Shutterstock.com

Sprachassistenten haben daran gearbeitet, ihre Benutzer besser zu verstehen&#8217 ; Befehle, solange sie existieren. Microsoft, Apple, Google und Amazon gehören zu den großen Namen, die eine Menge Ressourcen in ihre jeweiligen Sprachassistenten gepumpt haben und sie für so viele Menschen wie möglich zugänglich und frustfrei machen möchten.

Dazu mussten Mitarbeiter mit bestimmten Akzenten eingestellt werden, um Hunderte von Sprachbefehlen und Unterhaltungen aufzuzeichnen, die dann verwendet werden können, um KI-Dialekte beizubringen. In einem meiner magereren Monate beschloss ich, mit meinem sexy nordischen Akzent Geld zu verdienen und verbrachte Stunden damit, Hunderte von scheinbar zufälligen Wörtern und Sätzen für eine Firma namens Appen aufzuzeichnen.

Diese Firma nahm dann meine Aufnahmen und schickte sie an Amazon, Google, Microsoft oder wer auch immer sie bezahlte. Die Sprachausschnitte werden dann theoretisch verwendet, um die KI zu verbessern, die das Unternehmen, das sie gekauft hat, entwickelt.

Einige Sprachassistenten können sogar so trainiert werden, dass sie die genaue Stimme der Person, die sie verwendet, besser verstehen. Anders als darauf zu warten, dass Big Tech ihr Spiel verbessert, führt dies zu sofortigen Ergebnissen und kann die Genauigkeit Ihres Sprachassistenten erheblich verbessern. Es ermöglicht auch mehreren Benutzern, auf ihre Smart-Home-Profile zuzugreifen, ohne manuell wechseln zu müssen.

Warum könnte dies also eine schlechte Sache sein?

Juan Ci/Shutterstock.com< /figur>

Ich könnte damit durchkommen, zu sagen: "Alexer, serruz einen Wecker für morgen um 8 Uhr,&8221; aber der Versuch, Lieder anzufordern, ist der Punkt, an dem der Kampf erst richtig beginnt. Die Kommunikation mit Amazon Music und ein paar tausend frustrierten Sprüchen dauerte ungefähr drei Monate, aber jetzt kann ich sagen: “Happy Hour von The Housemartins spielen” so deutlich wie ein BBC-Newsreader aus den 1980er Jahren. Es gibt immer noch Gelegenheiten, in denen ich nach Paul Weller frage und irgendwie bei Ella Fitzgerald lande, aber es gibt immer Raum für Verbesserungen.

Der Silberstreifen, der mit den Akzentkämpfen gekommen ist, ist die Tatsache, dass sich mein Englisch verbessert hat. Ich kann jetzt klarer als je zuvor kommunizieren. Dies ist nützlich, da sich die Technologie bis zu dem Punkt verbessern kann, an dem die KI auf meinem Smartphone mich verstehen kann, aber das wird mir nicht viel nützen, wenn ich dieses Telefon benutze, um mit einem anderen Menschen zu sprechen.

Ein weiterer Vorteil ist, dass ich meinen Akzent dabei nicht ganz abgeschlachtet habe. Wenn ich mich stattdessen dafür entschieden hätte, für Sprechstunden zu bezahlen, würde ich möglicherweise Sätze in der erhaltenen Aussprache herunterrasseln. Identität ist wichtig; Akzente sind ein wichtiger Teil der Kultur und des Hintergrunds einer Person.

Das Vereinigte Königreich zum Beispiel hat alle paar Meilen einen deutlichen Akzent. Es gibt eine Karte, die seit einigen Jahren im Internet herumfliegt, die zwar umfangreich aussieht, aber dennoch kaum an der Oberfläche kratzt. Ein winziger Teil des Nordostens ist mit einem “Teesside” Akzent, aber die Einheimischen jeder Stadt in dieser Gegend (Middlesbrough, Hartlepool, Stockton und Billingham) sprechen alle anders.

Stellen Sie sich nun die Unterschiede in einer Grafschaft von der Größe von Yorkshire vor. Die Menschen neigen auch dazu, sich mit ihrer Herkunft zu identifizieren und viel von ihrer Kultur zu bewahren. Akzente sind ein großer Teil davon; nicht jeder möchte wie Hugh Grant klingen. Wir wurden in den letzten Jahren vielleicht verwöhnt, da sich viele Menschen jetzt gerne zurücklehnen und darauf warten, dass die Technologie ihre Mängel ausgleicht&8212;und in vielen Fällen wird sie genau das tun. Aber manchmal ist es auf lange Sicht schneller und besser, Technik in der Mitte zu treffen.

Sprachassistenten müssen möglichst vielen Menschen zugänglich gemacht werden. Wenn Sie in perfekter empfangener Aussprache sprechen müssten, bevor Siri Ihnen die Tageszeit nennen würde, wäre einer der bedeutendsten Erfolge von Apple für über 99,9 % der Englischsprachigen nutzlos.

Sogar so etwas wie ein amerikanischer Standardakzent würde die Mehrheit der Benutzer in den Vereinigten Staaten ausschließen, geschweige denn weltweit. Daher ist es offensichtlich, warum Unternehmen viel Mühe darauf verwenden, ihrer Software beizubringen, so viele Dialekte wie möglich zu verstehen. Und das sollten sie auch. Aber sie sollten nur so weit gehen.

Es wäre besser, wenn Apple, Google und Co. Vermeiden Sie eine perfektionistische Mentalität und streben Sie stattdessen einfach nach einem Standard, der Zugänglichkeit ermöglicht, aber dennoch ein wenig Sorgfalt von den Benutzern erfordert’ Teil. Persönlich hat mich Alexas Unwille, über die klare Sprache hinaus zu hören, gezwungen, darüber nachzudenken, wie ich Dinge ausspreche.

Meine Sprache ist zweifellos klarer als zuvor, als ich es mit einem Sprachassistenten zu tun hatte mehrmals täglich. Es war nicht etwas, was ich mir vorgenommen hatte; es war ein unbeabsichtigter und sehr nützlicher Nebeneffekt&8212;und wenn es bei mir funktioniert, könnte es auch bei anderen Leuten funktionieren.