Peut-être qu'Alexa et Google Assistant ne devraient pas mieux vous comprendre

0
175

 

Lukmanazis/Shutterstock.com

Les assistants vocaux comme Google Assistant et Alexa font partie du quotidien. Ils sont sur les téléphones, les ordinateurs portables, les murs et contrôlent les maisons intelligentes. Mais ils peuvent être difficiles à utiliser, surtout pour quiconque parle “non standard” Anglais. Les entreprises essaient de résoudre ce problème, mais que se passe-t-il si c'est une mauvaise chose ?

En facilitant l'utilisation des assistants vocaux dans les maisons intelligentes et sur les smartphones, les entreprises peuvent en fait réduire le nombre d'utilisateurs’ capacité à fonctionner dans un monde plus vaste. Il y a environ 1,35 milliard d'anglophones dans le monde, dont 400 millions de “locuteurs natifs.”

Ainsi, il est prudent de supposer qu'environ 2/3 des anglophones ont un certain degré d'accent simplement parce que ce n'est pas leur langue maternelle. Ensuite, avec les 400 millions de personnes qui parlent anglais comme première langue, vous avez de multiples accents nationaux (britannique, canadien, américain, australien, etc.). Dans chaque pays, vous avez des dialectes régionaux et ainsi de suite.

Si les entreprises devaient choisir et perfectionner un seul dialecte, disons l'anglais standard américain, leur produit ne serait utilisable que par une infime fraction des anglophones. Inversement, s'ils vont trop loin, ils pourraient priver les gens de ce qui pourrait être un outil très utile pour développer leurs compétences en communication.

Comment les entreprises technologiques essaient-elles pour améliorer les choses ?

Tyler Nottley/Shutterstock.com

Les assistants vocaux ont travaillé pour mieux comprendre leurs utilisateurs’ commandes depuis qu'elles existent. Microsoft, Apple, Google et Amazon font partie des grands noms qui ont injecté une tonne de ressources dans leurs assistants vocaux respectifs et souhaitent les rendre aussi accessibles et sans frustration pour le plus grand nombre.

Cela a impliqué l'embauche de personnes avec des accents particuliers pour enregistrer des centaines de commandes vocales et de conversations, qui peuvent ensuite être utilisées pour enseigner les dialectes de l'IA. Au cours d'un de mes mois les plus maigres, j'ai décidé de tirer profit de mon accent nordique sexy et j'ai passé des heures à enregistrer des centaines de mots et de phrases apparemment aléatoires pour une entreprise appelée Appen.

Cette société a ensuite pris mes enregistrements et les a envoyés à Amazon, Google, Microsoft ou quiconque les payait. Les extraits vocaux sont ensuite théoriquement utilisés pour améliorer l'IA que l'entreprise qui les a achetés est en train de développer.

Certains assistants vocaux peuvent même être formés pour mieux comprendre la voix exacte de la personne qui les utilise. Contrairement à attendre que les grandes technologies améliorent leur jeu, cela produit des résultats immédiats et peut améliorer considérablement la précision de votre assistant vocal. Il permet également à plusieurs utilisateurs d'accéder à leurs profils de maison intelligente sans avoir à changer manuellement.

Alors, pourquoi cela pourrait-il être une mauvaise chose ?

Juan Ci/Shutterstock.com

Je pourrais m'en tirer en disant: “Alexer, serruz une alarme pour huit heures demain, tu seras,” mais essayer de demander des chansons est l'endroit où la lutte commence vraiment. Il a fallu environ trois mois de communication avec Amazon Music et quelques milliers de jurons frustrés, mais je peux maintenant dire “jouez Happy Hour de The Housemartins” aussi clairement qu'un lecteur de nouvelles de la BBC des années 1980. Il y a encore des occasions où je demande Paul Weller et je me retrouve d'une manière ou d'une autre avec Ella Fitzgerald, mais il y a toujours de la place pour s'améliorer.

La doublure argentée qui est venue avec les difficultés d'accent est le fait que mon anglais s'est amélioré. Je peux maintenant communiquer plus clairement que jamais. C'est utile car la technologie peut s'améliorer au point que l'IA sur mon smartphone peut me comprendre, mais cela ne me fera pas beaucoup de bien lorsque j'utiliserai ledit téléphone pour parler à un autre être humain.

Un autre avantage est que je n'ai pas complètement massacré mon accent dans le processus. Si j'avais choisi de payer pour des cours d'élocution à la place, je pourrais être en train de débiter des phrases dans la prononciation reçue. L'identité est importante; les accents sont une partie importante de la culture et des antécédents de quelqu'un.

Le Royaume-Uni, par exemple, a un accent distinct tous les quelques kilomètres. Il y a une carte qui vole sur Internet depuis quelques années qui semble vaste mais qui effleure encore à peine la surface. Une infime partie du nord-est est étiquetée comme ayant un “Teesside” accent, mais les natifs de chaque ville de cette région (Middlesbrough, Hartlepool, Stockton et Billingham) parlent tous différemment.

Imaginez maintenant les variations dans un comté de la taille du Yorkshire. Les gens ont également tendance à s'identifier à leur lieu d'origine et à préserver une grande partie de leur culture. Les accents sont une grande partie de cela; tout le monde ne veut pas ressembler à Hugh Grant. Nous avons peut-être été gâtés ces dernières années, car de nombreuses personnes sont maintenant heureuses de s'asseoir et d'attendre que la technologie compense leurs lacunes et, dans de nombreux cas, c'est exactement ce qu'elle fera. Mais parfois, rencontrer la technologie au milieu est à la fois plus rapide et meilleur à long terme.

Les assistants vocaux doivent être rendus accessibles au plus grand nombre. Si vous deviez parler avec une prononciation reçue parfaite avant que Siri ne vous donne l'heure de la journée, l'un des succès les plus importants d'Apple serait inutile pour plus de 99,9% des anglophones.

Même quelque chose comme un accent américain standard exclurait la majorité des utilisateurs aux États-Unis, sans parler du monde entier. Par conséquent, il est évident que les entreprises s'efforcent d'apprendre à leurs logiciels à comprendre autant de dialectes que possible. Et donc ils devraient. Mais ils ne devraient pas aller aussi loin.

Il vaudrait mieux qu'Apple, Google, et al. évitez d'adopter une mentalité perfectionniste et visez plutôt une norme qui permet l'accessibilité mais nécessite toujours un peu de soin de la part des utilisateurs’ partie. Sur une note personnelle, la réticence d'Alexa à écouter autre chose qu'un discours clair m'a obligé à réfléchir à la façon dont je prononce les choses.

Mon discours est sans aucun doute plus clair qu'avant je devais traiter avec un assistant vocal. plusieurs fois par jour. Ce n'était pas quelque chose que j'avais l'intention de faire; c'était un effet secondaire involontaire et très bénéfique—et si cela fonctionnait pour moi, cela pourrait aussi fonctionner pour d'autres personnes.