Forse Alexa e Google Assistant non dovrebbero migliorare nel capirti

0
144

 

Lukmanazis/Shutterstock.com

Gli assistenti vocali come Google Assistant e Alexa fanno parte della vita di tutti i giorni. Sono su telefoni, laptop, pareti e controllano case intelligenti. Ma possono essere difficili da usare, specialmente per chiunque parli “non standard” Inglese. I compilatori stanno cercando di risolvere il problema, ma cosa succede se è una cosa negativa?

Rendendo gli assistenti vocali nelle case intelligenti e sugli smartphone più facili da usare, le aziende potrebbero effettivamente ridurre i propri utenti’ capacità di funzionare nel mondo intero. Ci sono circa 1,35 miliardi di persone che parlano inglese a livello globale, di cui 400 milioni sono “madrelingua.”

Quindi, è lecito ritenere che circa i 2/3 degli anglofoni abbiano un certo grado di accento semplicemente perché non è la loro prima lingua. Quindi con i 400 milioni di persone che parlano inglese come prima lingua, hai più accenti nazionali (britannico, canadese, americano, australiano, ecc.). In ogni paese ci sono dialetti regionali e così via.

Se le aziende scegliessero e perfezionassero un singolo dialetto, ad esempio l'inglese standard americano, il loro prodotto sarebbe utilizzabile solo da una piccola parte degli anglofoni. Al contrario, se si spingono troppo oltre, potrebbero derubare le persone di quello che potrebbe essere uno strumento molto utile per sviluppare le loro capacità di comunicazione.

Come stanno provando le aziende tecnologiche migliorare le cose?

Tyler Nottley/Shutterstock.com

Gli assistenti vocali hanno lavorato per comprendere meglio i loro utenti&#8217 ; comandi da quando esistono. Microsoft, Apple, Google e Amazon sono tra i grandi nomi che hanno pompato un sacco di risorse nei rispettivi assistenti vocali e vogliono renderli il più accessibili e privi di frustrazioni per il maggior numero possibile di persone.

Ciò ha comportato l'assunzione di persone con accenti particolari per registrare centinaia di comandi vocali e conversazioni, che possono quindi essere utilizzati per insegnare i dialetti dell'intelligenza artificiale. Durante uno dei miei mesi più magri, ho deciso di incassare il mio sexy accento del Nord e ho passato ore a registrare centinaia di parole e frasi apparentemente casuali per un'azienda chiamata Appen.

Quella società ha quindi preso le mie registrazioni e le ha inviate ad Amazon, Google, Microsoft o chiunque altro le stesse pagando. Gli snippet vocali vengono quindi teoricamente utilizzati per migliorare qualsiasi intelligenza artificiale che l'azienda che li ha acquistati sta sviluppando.

Alcuni assistenti vocali possono persino essere addestrati per comprendere meglio la voce esatta della persona che li utilizza. A differenza dell'attesa che le grandi tecnologie facciano il loro meglio, questo produce risultati immediati e può aiutare in modo significativo la precisione del tuo assistente vocale. Consente inoltre a più utenti di accedere ai propri profili di casa intelligente senza dover cambiare manualmente.

Allora, perché potrebbe essere una brutta cosa?

Juan Ci/Shutterstock.com< /figura>

Potrei farla franca dicendo: “Alexer, serruz una sveglia per le otto di domani, lo farai,” ma cercare di richiedere canzoni è dove inizia davvero la lotta. Ci sono voluti circa tre mesi di comunicazione con Amazon Music e qualche migliaio di imprecazioni frustrate, ma ora posso dire “suona Happy Hour di The Housemartins” chiaramente come un newsreader della BBC degli anni '80. Ci sono ancora occasioni in cui chiedo di Paul Weller e in qualche modo finisco con Ella Fitzgerald, ma c'è sempre spazio per migliorare.

Il lato positivo che è venuto con le lotte di accento è il fatto che il mio inglese è migliorato. Ora posso comunicare in modo più chiaro che mai. Questo è utile perché la tecnologia può migliorare al punto che l'intelligenza artificiale del mio smartphone può capirmi, ma ciò non mi farà molto bene quando sto usando quel telefono per parlare con un altro essere umano.

Un altro vantaggio è che non ho completamente massacrato il mio accento nel processo. Se invece avessi scelto di sborsare per lezioni di dizione, potrei snocciolare frasi nella pronuncia ricevuta. L'identità è importante; gli accenti sono una parte importante della cultura e del background di qualcuno.

Il Regno Unito, ad esempio, ha un accento distinto ogni poche miglia. C'è una mappa che sta volando su Internet da alcuni anni che sembra ampia ma graffia ancora a malapena la superficie. Una piccola parte del nord-est è etichettata come avente un “Teesside” accento, ma i nativi di ogni città in quella zona (Middlesbrough, Hartlepool, Stockton e Billingham) parlano tutti in modo diverso.

Ora immagina le variazioni in una contea delle dimensioni dello Yorkshire. Le persone tendono anche a identificarsi con il luogo da cui provengono e a preservare gran parte della loro cultura. Gli accenti sono una grande parte di questo; non tutti vogliono suonare come Hugh Grant. Potremmo essere stati viziati negli ultimi anni, poiché molte persone ora sono felici di sedersi e aspettare che la tecnologia compensi le loro carenze e in molti casi lo farà. Ma a volte, incontrare la tecnologia nel mezzo è sia più veloce che migliore a lungo termine.

Gli assistenti vocali devono essere resi accessibili a quante più persone possibile. Se dovessi parlare in una perfetta pronuncia ricevuta prima che Siri ti desse l'ora del giorno, uno dei successi più significativi di Apple sarebbe inutile per oltre il 99,9% degli anglofoni.

Anche qualcosa come un accento americano standard escluderebbe la maggior parte degli utenti negli Stati Uniti, figuriamoci in tutto il mondo. Quindi, è ovvio il motivo per cui le aziende si stanno impegnando molto per insegnare ai loro software a comprendere quanti più dialetti possibile. E così dovrebbero. Ma dovrebbero arrivare solo fino a un certo punto.

Sarebbe meglio se Apple, Google e altri. evitare di adottare una mentalità perfezionista e puntare invece a uno standard che consenta l'accessibilità ma richieda comunque un po' di attenzione da parte degli utenti’ parte. A titolo personale, la riluttanza di Alexa ad ascoltare qualsiasi cosa al di là di un discorso chiaro mi ha costretto a pensare a come pronunciavo le cose.

Il mio discorso è senza dubbio più chiaro di prima che dovessi avere a che fare con un assistente vocale più volte al giorno. Non era qualcosa che avevo deciso di fare; era un effetto collaterale non intenzionale e molto benefico—e se ha funzionato per me, potrebbe funzionare anche per altre persone.