A proposOutilsSociétésRéférencesBlog
CONTACT
Paris
(+33) 1 79 73 22 30
FR
EN
AccueilBlog
Va-t-on un jour nous demander de traduire en Google, en Amazon voire en Baidu ?

Va-t-on un jour nous demander de traduire en Google, en Amazon voire en Baidu ?

La question a le mérite d’être posée… L’importance des moteurs de recherche dans notre vie quotidienne et pour l’activité de très nombreuses entreprises a mené il y a déjà plusieurs années à une généralisation de l’utilisation du SEO pour la rédaction des contenus en ligne. Nos équipes ont donc dû s’adapter pour savoir « traduire pour le SEO ». Avec comme premier effet, utiliser une variante de la langue souhaitée adaptée aux algorithmes. En gros, sujets – verbe - complément et des mots clés non ambigus. Et surtout pas de subtilités :)

Photo by hk on Unsplash

De là à penser que Google, Baidu, Yahoo, Bing et consort ont modifié durablement l’écriture des langues… le pas peut se franchir aisément. C’est une hypothèse qui se défend dès qu’il s’agit de contenus diffusés en ligne….

Et voici venu le temps des assistants vocaux. Vos prestataires spécialisés en SEO ou SEA vous le répètent depuis plusieurs mois, il faut maintenant écrire « pour les recherches faites par les personnes utilisant des assistants vocaux ». Bien… Mais qu’en est-il de l’impact de ces outils sur l’oralité ? Les assistants vocaux, Siri, Alexa, Google Home et consorts vont-ils maintenant aussi changer la façon dont nous parlons ? Et par ricochet, modifier le métier des interprètes qui devront apprendre une variante, un dialecte « assistant virtuel compatible » de leur langue maternelle ?

Après devoir traduire pour être compréhensible par un assistant vocal, devra-t-on dans les prochains mois ou années interpréter en langue Google, langue Amazon voire langue Baidu ? Les assistants vocaux ont déjà changé la façon dont on achète (surtout avec et pour les jeunes générations). Une influence qui est pointée dans de nombreuses études, dont celle de PWC que voici : Prepare for the voice revolution.

Dès 2018, le Life Science Center Museum in Newcastle publie les résultats d’une étude liée à une exposition traitant des robots : 79% des personnes ayant un accent régional modifient leur façon de parler pour se conformer et être compris par leurs appareils dotés d’assistants virtuels.

L’article suivant Browsing with Alexa: Interrogating the impact of voice assistants as web interfaces pointe aussi les dérives concernant les minorités. Les intelligences artificielles ont été alimentées pendant des années par des données produites par les utilisateurs les plus répandus (et dans les langues les plus répandues également). Le biais observé aujourd’hui, même si les équipes de chercheurs tentent de le résorber peu à peu, est un renforcement des inégalités avec par exemple des limites pour les locuteurs non natifs (cf Moussalli andCardoso, 2019).

Ayons bien en tête que Siri, Alexa, and Google Assistant sont conçus sur des modèles de conversation transactionnelle dont l’objectif est d’exécuter des actions. Incitant donc les utilisateurs à modifier leur façon de parler pour se conformer à « un langage de programmation informatique ». Pour poursuivre notre hypothèse associant Assistants Vocaux et évolution des langues dans leur version parlée (et par ricochet, dans certains contextes, une évolution des langues que devront maitriser les interprètes après que les traducteurs se soient mis au SEO), il est intéressant de noter que les AV sont aussi utilisés dans certains pays pour apprendre les langues.

De nombreux travaux de recherche en témoignent, comme par exemple Intelligent personal assistants: can they understand and be understood by accented L2 learners?  et Investigating college EFL learners’ perceptions toward the use of Google Assistant for foreign language learning.

Les apprenants en langue utilisent les assistants vocaux pour se confronter à une langue, sans avoir le stress de s’exposer face à un autre humain. [Moussalli, S., & Cardoso, W. (2016) ]. Au-delà de certains avantages qu’il ne faut pas écarter, ces apprenants vont donc « apprendre la langue des robots…autrement dit, la langue des ordinateurs ». Une version disons « simplifiée » de nos langues traditionnelles. Le NY Times, dans cet article de 2018 May A.I help you? pose l’hypothèse suivante : « Perhaps interacting with A.I.s will mean atrophy for our social muscles » (« le fait d’inter-agir avec les Intelligences Artificielles va peut-être mener à une atrophie de nos muscles d’interaction sociale »).

Nous renvoyons ici la question : les AV peuvent-ils mener à une atrophie de nos langues, de notre capacité à nous exprimer et à exprimer des sentiments ou nuances fines ? Si cette hypothèse se constate dans plusieurs années, la perte de subtilité de nos langues peut avoir une réelle conséquence sur notre métier.

Pour celles et ceux que le sujet passionne, voici une liste de 11 chercheurs et personnalités au cœur des technologies utilisées par les assistants vocaux. Des personnes à suivre à la tête d’équipes expertes chezGoogle, Amazon, Appel, Clinc, Audio Analytics voire encore Dashbot.

Les moyens financiers supportant ces travaux de recherches ont quasiment illimités. Tout va donc très vite. Souvent même plus vite que prévu. Soyons prêts…à tout.