Catégorie : Nouvelles technologies

The LangFM podcast – Signs of the Times

Alexander Drechsel est interprète de conférence à la Commission européenne. Ses langues sont l’allemand (A), l’anglais (B), le français et le roumain (C).
Mais il n’est pas que cela.

Il adore les langues, les nouvelles technologies, les portables, les tablettes… Il aime communiquer, échanger avec ses collègues, il a un compte Twitter… Jusque là rien de très original.
Ce qui le distingue est qu’il est le créateur et l’animateur d’un Podcast, LangFM. Il vous fait voyager et rencontrer des personnes du monde des langues : interprètes, traducteurs, professeurs de langue et bien d’autres. Souvent en anglais, parfois en allemand et une fois en français ses témoins vous parlent de leur parcours, de leur métier, de leur voix, de leurs langues…

Capture d_écran 2018-08-25 à 10.58.02

Alexander, depuis plusieurs années est fasciné (ce sont ses mots) par l’interprétation en langue des signes, spécialité qui devient de plus en plus visible, à la télévision, lors des campagnes électorales… D’ailleurs les interprètes en langue des signes peuvent à présent adhérer à l’AIIC (Association internationale des interprètes de conférence) preuve qu’ils sont enfin reconnu à leur juste valeur. Même le Parlement européen s’y met comme il le raconte dans l’épisode 28 de son Podcast : #EUsigns of the time.

Il a décidé de créer une mini-série intitulée : « Signs of the Times ». Elle comporte 3 émissions.
– La première, en anglais, est une interview de Jemina Napier , Annelies Kusters et Graham Turner, sur l’histoire de la BSL (British Sign Language), la communauté sourde au Royaume-Uni, les interprètes (bien sur)…

– Signs of the times I: The story of the BSL (Scotland) Bill – 

– La seconde est en allemand (donc je n’ai rien compris) : Alexander discute avec Laura Schwengber, une interprète en langue des signes qui s’est notamment intéressée à l’interprétation de chansons, comme on a pu voir lors des dernières retransmissions de l’Eurovision (merci DeepL pour la traduction).

– Sign of the times II: Ausflug nach Gehörlosistan mit Laura Schwengber –

– enfin la troisième emission est en français. Je laisse Alexander vous la présenter : « Bonjour. Vous écoutez LangFM, le podcast sur les langues et les gens; ce que les gens font avec les langues et ce que les langues font avec les gens. Cette épisode est la troisième, et la dernière, dans une petite série à propos des langues des signes. J’ai commencé en Ecosse avec le professeur Jemina Napier et Graham Turner et l’histoire de la British Sign Language Scotland Act. Après, j’ai rencontré Laura Schwengber en Allemagne, où elle invite les sourds de vivre à la musique que, normalement, ils ne peuvent pas entendre. Et bien voilà, maintenant, on conclut la série en France avec Stéphane Barrère qui nous parle de son parcours personnel et de la vie d’hier et d’aujourd’hui des sourds en France. Bonne écoute. »

– Sign of the times III: Stéphan Barrère – 

Notons qu’Alexander a la bonne idée de proposer une retranscription écrite de ses entretiens, utile pour les sourds mais aussi pour ceux qui ne seraient à l’aise avec la langue de Shakespeare, de Goethe ou de Molière.

Bonne écoute !

© Stéphan – ( i ) LSF 

Un gant n’est pas un interprète (et inversement)

Si j’avais le talent de Jean de Lafontaine, j’écrirais ce billet sous forme d’une fable qui raconterait l’histoire de ce gant, qui se prit pour un interprète pouvant traduire des langues des signes et qui à la fin se dégonfla comme une baudruche, les créateurs de ce gant « traducteur » s’apercevant (et les journalistes avec eux) qu’ils s’étaient fourrés encore une fois le doigt (ganté) dans l’oeil.

En effet, depuis quelques jours réapparait l’invention qui doit bouleverser le monde de l’interprétation en langue des signes et celui de la communication entre sourds et entendants : deux étudiants de l’université de Washington, Thomas Pryor et Navid Azodi, ont inventé SignAloud, des gants capables de traduire la langue des signes américaine (ASL) en un discours oral, dixit de nombreux sites d’informations grand public ou technologiques.
Chaque gant comporte des capteurs sur les doigts et les poignets qui enregistrent la position des mains et les mouvements qui correspondent aux mots et phrases dans la langue des signes américaine. Ces données sont envoyées en Bluetooth à un ordinateur qui les étudie à l’aide d’un algorithme séquentiel qui fonctionne à la manière d’un réseau neuronal (je dois admettre que j’ai fait un copié-collé de ce passage car je n’ai pas tout compris).
Si les données correspondent à un geste, le mot associé (ou la phrase) est énoncé en anglais via le haut-parleur.

Bien qu’à l’état de prototype, ces gants permettraient d’exprimer des messages simple en une langue ultra simple qui ressemble cependant plus à de « l’américain signé » (les signes sont plaqués sur la syntaxe la langue anglaise orale) qu’à l’ASL (American Sign Language).

Sans juger de la réelle qualité de ces gants, on peut néanmoins affirmer que la communication autour de ce projet a été très efficace car un peu partout dans le monde, des journalistes relayés par les réseaux sociaux, ont proclamé : « ils ont inventés des gants qui traduisent la langue des signes » (BFMTV par exemple).

Une remarque d’abord. Ce n’est pas le premier essai et cette « invention » n’a rien de révolutionnaire. En 2012 déjà, des ukrainiens avaient été récompensés pour une invention semblable comme le racontait le site SooCurious avec déjà la même accroche : « Des étudiants inventent des gants capable d’opaliser le langage des signes » (inutile de revenir sur l’appellation erronée de langage des signes à la place de langue des signes).

Ensuite on notera que ce sont toujours des étudiants ingénieurs (en informatique, en génie mécanique…) qui sont à l’origine de ces créations. Jamais dans leurs équipes il n’y a de linguistes, de sourds ou d’interprètes capables leur expliquer la structure, le fonctionnement bref le génie de ces langues gestuelles (qui ne sont pas des langages tel que le langage informatique mais bien des langues) et pourquoi nous somme loin d’une solution gantée permettant de « traduire » d’une langue des signes vers une langue orale.
Les journalistes non plus ne sont pas très curieux : jamais ils n’interrogent ces mêmes linguistes, sourds ou interprètes sur la validité de ces projets.

Personnellement, je doute que prochainement ce système pourra traduire fidèlement et agréablement un long discours.
En effet les langues des signes sont vivantes, complexes. Elles ne sont pas qu’une succession de signes. Elles possèdent leur propre syntaxe qui est intimement liée à la perception visuelle, puisque cette langue répond à une logique visuelle et non auditive. Ainsi la grammaire de la langue des signes française (LSF) n’est pas identique à celle du français (par exemple la place des mots dans la phrase n’est pas la même). Elle se construit comme un plan au cinéma. D’abord le temps (passé-présent-futur), ensuite le lieu (où cela se passe-t-il ? ), puis les acteurs (qui ? ) et enfin l’action (le verbe).

Les discours énoncés sont basés sur l’utilisation des signes donc des mains mais aussi du regard et de l’espace, des expressions du visage (il est admis que les langues des signes sont composées de 5 paramètres) : les configurations des mains, leurs emplacements, leurs orientations et leurs mouvements forment des signes équivalents à des mots disposés devant soi comme sur une scène de théâtre.
(Ces paramètres peuvent même monter jusqu’à 8 selon les dernières théories linguistiques en y incluant la labialisation, les postures… ).
Les emplacements de ces signes, ainsi que la direction du regard, permettent de visualiser les relations (actif ou passif), le temps (signes tournés vers l’arrière pour le passé, vers l’avant pour le futur). Le visage et le mouvement des épaules servent aussi à exprimer les nuances du discours, les émotions par exemple l’ironie, le doute, la colère…

Ces gants et leurs capteurs auront-ils la précision et la finesse nécessaires pour détecter tous ces paramètres ? Les algorithmes seront-ils assez élaborés pour déterminer avec exactitude l’intention du locuteur ? Aujourd’hui non, demain pas sur, un jour… sans doute.
Au mieux, actuellement, ce système pourrait traduire quelques signes simples en mots, quelques phrases basiques (sujet/verbe/complément).
De là à proclamer que des gants peuvent traduire la ou les langues des signes il y a un gouffre (car bien sur comme chaque pays ou région possède sa propre langue des signes, il faudra aussi multiplier les programmes informatiques et autres algorithmes pour prendre en compte cette diversité).

Enfin qui voudrait porter ces vilains gants pour se rendre chez son boulanger et acheter une baguette en langue des signes avec traduction par une voix synthétique (je ne parle même pas d’aller boire un dernier verre dans un bar). 
Sans être un adepte du « c’était mieux avant » et refuser toute idée de progrès on peut remarquer que la technique habituelle de la phrase écrite sur un bout de papier reste très efficace et que le mime ou le pointage conservent leur charme. Bref, les sourds n’ont pas attendu ces gants pour être autonomes et communiquer dans des situations simples de la vie de tous les jours. 

gant lsf

Ces gants ne sont qu’un exemple parmi les nombreuse tentatives pour accéder à la compréhension de la langue des signes sans passer par l’effort de l’apprendre.
D’autres systèmes sont censés traduire comme celui utilisant Kinect (de Microsoft) avec une caméra de reconnaissance interactive branchée sur la console Xbox 360 et qui reconnait puis traduit les signes.
En enregistrant puis en normalisant les mouvements de la langue des signes, le système utilise un algorithme pour déterminer l’alignement du mouvement de la trajectoire 3D. Une fois que la machine a assimilé les données visuelles, elle essaye de les faire correspondre aux mots qu’elle connaît par ordre de pertinence via son dictionnaire interne. A l’inverse, le système peut aussi traduire les textes sous la forme d’avatars signeurs qui apparaissent à l’écran. Cette invention date de juillet 2013 mais depuis la parution de quelques articles, plus de nouvelle. 

tumblr_inline_nj05vyttCL1rakait

Face à ces nombreuses tentatives toujours infructueuses, il est bon cependant de rappeler qu’il existe aujourd’hui dans le monde un système de traduction qui fonctionne bien et qui s’appelle « interprète en langue des signes ». Malheureusement – en France notamment – cette profession peine à se développer, faute de budget nécessaire d’abord pour la formation de ces futurs professionnels puis pour leur assurer une rémunération décente.  

Il ne faudrait pas que ces beaux projets high-tech nous fassent oublier que le Ministère de la Justice paye péniblement 30€ brut l’heure d’interprétation dans un tribunal, que la CAF dans certaines régions refuse de faire appel à des interprètes F-LSF pour des raisons budgétaires, qu’en mairie, pour se marier et comprendre les articles du Code civil (ardus à traduire), c’est le sourd qui devra souvent payer de sa poche la prestation d’interprétation. Et ces gants n’y changeront rien.

Aussi, avant de se pâmer devant de futurs et hypothétiques progrès technologiques (qui adviendront sans doute dans quelques années ou décennies) intéressons-nous davantage (et vous aussi les journalistes) aux carences de la société française en matière d’accessibilité et n’oublions pas le présent en encourageant la communication entre sourds et entendants grâce à la présence d’interprètes diplômés et justement payés c’est à dire un peu plus que les 1300€ que touchera en moyenne un interprète F-LSF débutant après 5 années d’études. 

.

© Stéphan – ( i ) LSF

« Bientôt les interprètes en langue des signes remplaceront les centrales nucléaires »

Face au réchauffement climatique, au danger que représentent les centrales nucléaires, les interprètes en langue des signes seront-ils la solution ? C’est possible.

Rassurez-vous, aucun Docteur Frankenstein n’a prévu de nous transformer en pile électrique. Néanmoins, un nouveau système, qui est encore à l’état de prototype, est en cours d’élaboration ; il devrait prochainement permettre aux interprètes qui traduisent vers une langue des signes de produire de l’électricité.

Les premières phases de test ont déjà eu lieu et les résultats récemment dévoilés sont encourageants.
C’est ce que j’ai pu constater lors d’une conférence, à laquelle j’ai été invitée et qui fut donnée en marge de la COP 21 par le fondateur et président franco-américain de la startup K-Bio, Jonas Whale.

L’idée lui est venue tandis qu’il dansait à l’Aquarium, un nightclub à Amsterdam, aux Pays-Bas.
« Ce club est connu dans tout le pays pour avoir mis en place un sytème de récupération de l’énergie produite par les danseurs sur le dance-floor. Conçues par l’entreprise l’entreprise Sustainable Dance Club (SDC) , des dalles récoltent l’énergie cinétique produite par les danseurs ce qui permet à la boite de nuit d’alimenter l’éclairage grâce à l’énergie produite par les mouvements des danseurs », explique-t-il.

 

Mais pourquoi associer ce système à des interprètes en langue des signes ?
Simplement car la soeur de Jonas est sourde et qu’il a fréquenté de nombreuses interprètes qui traduisaient pour elle. « Je suis même sorti avec l’une d’elle, Gladys Mermaids une interprète en langue des signes américaine (ASL) durant 5 ans. Le soir, assis dans mon canapé, je la regardais traduire frénétiquement le journal télévisé ». C’est ainsi qu’il a eu le déclic.

« J’ai une formation d’ingénieur en génie électrique, dans ma tête mes neurones ne pensent qu’aux protons et aux électrons. En voyant l’énergie qu’elle déployait à bouger ses bras et ses mains dans tous les sens pour suivre le ryhtme du journaliste, j’ai pensé qu’il était idiot de gaspiller toute cette énergie produite et qu’on pourrait la transformer en électricité ».

C’est ainsi que l’idée de l’interprète produisant de l’électricité est née et qu’il a créé dans la foulée, en 2012, sa startup située à Paris, rue du Faubourg Poissonnière dans le 9ème arrondissement, K-Bio.

« Avec cette invention, mon but est que les interprètes en langue des signes soient auto-suffisants durant leur journée. Pour avoir vécu avec une interprète  je sais qu’ils sont toujours en déplacement et qu’ils n’ont pas forcement la possibilité de recharger comme ils le voudraient leur téléphone ou leur ordinateur portable. Avec mon système, ils seront totalement indépendants, ils pourront se passer des prises électriques. Aujourd’hui je travaille pour cette profession car il y a un marché de niche qui me permet de tester grandeur nature mon prototype mais demain j’espère bien le proposer à d’autres professionnels qui sollicitent leurs bras comme les caissières, les policiers réglant la circulation, les maitres-nageurs, les lanceurs de javelots, les peintres en bâtiment… ». 

Voici dispositif : au début de ses recherches, il a conçu un gant comme on peut le voir sur cette photo prise en 2013 lors d’une conférence destinée à trouver des fonds pour financer le développement de son entreprise.

gants-enable-talk-diapo-2

Ayant parfaitement conscience qu’aucun interprète ne pourrait traduire correctement avec cet engin autour des mains, il a axé ses recherches sur la miniaturisation des composants et autres bobines et il est arrivé à un résultat plutôt encourageant.

« Nos équipes de chercheurs et de techniciens sont parvenus à créer un gant qui épouse parfaitement les contours de la mains. Aujourd’hui il est bleu pour les besoins des démonstrations afin qu’il soit parfaitement visible comme aujourd’hui à la COP21 mais demain il nous sera aisé de le rendre soit transparent soit de couleur chair pour qu’il soit quasi-invisible. »

glove1

Jonas Whales nous en détaille le fonctionnement : « l’énergie cinétique produite par les bras des interprètes en action est convertie en électricité grâce à un mini-transformateur que nous avons conçu au sein de K-Bio. Puis cette électricité est stockée dans une batterie spéciale fixée à l’arrière du pantalon. Il suffit ensuite à l’interprète d’insérer son téléphone à l’intérieur, et d’attendre que la LED verte s’allume, signifiant que la batterie est rechargée ».
Ou comment l’interprète F-LSF se transforme en véritable poisson électrique !

 

Capture d'écran 2016-03-31 18.27.02

D’après les calculs des ingénieurs de la startup K-Bio et comme on peut le constater sur les graphiques que l’entreprise a projetés durant la conférence, l’interprétation d’une réunion d’une douzaine de personnes pendant une heure produit de quoi recharger de +18% la batterie de son téléphone portable. Pour un entretien, il faut compter deux heures pour atteindre un pourcentage identique.

IMG_5560

Interrogé par une journaliste qui lui demandait quel avenir il imaginait pour cette invention, le jeune entrepreneur a conclu : « nous ne sommes qu’au début du développement de cette nouvelle utilisation de l’énergie cinétique pour produire de l’électricité. Aujourd’hui ce sont les interprètes en langue des signes qui peuvent recharger leur téléphone grâce à leur activité professionnelle. Demain c’est chacun de nous qui produira sa propre énergie et nous pourrons dire adieu aux centrales nucléaires ou à charbon qui polluent tant et qui sont tellement néfastes pour notre terre. Voilà pourquoi je dis que bientôt les interprètes en langue des signes remplaceront les centrales nucléaires ! »

Capture d'écran 2016-03-31 18.54.55

Un seul regret : cette conférence organisée en marge de la COP 21 n’était pas traduite en LSF.
C’est dommage car vu le débit et l’enthousiasme de Jonas Whales quand il parlait, l’interprète devant le traduire aurait sans doute produit assez d’électricité pour éclairer la ville de Marseille durant une semaine.

.

© Stéphan – ( i ) LSF

Des sourds qui téléphonent ? Non mais allo quoi !

Raconter que vous venez d’avoir une longue conversation téléphonique avec un sourd pourrait vous faire passer pour fou auprès de vos amis.
Pourtant c’est possible grâce à la visio-interprétation. Les technologies nécessaires pour accomplir cette prouesse connaissent depuis vingt ans un essor spectaculaire et plusieurs pays proposent déjà des services de « centres-relais » téléphoniques dédiés.

Shouted phone

Le principe général des centres-relais téléphoniques est extrêmement simple. Le système consiste à intégrer dans la communication un dispositif intermédiaire assurant la transcription ou la traduction, depuis la langue parlée vers la langue écrite ou la langue des signes, et vice-versa.
Dans le cas de la langue des signes, l’usager signeur et l’interprète (diplômé bien sur) communiquent par visioconférence. Le sourd signe, l’interprète le regarde via la caméra et traduit simultanément pour la personne entendante qu’il a au bout du fil (et inversement).

La Suède a lancé son premier centre-relais vidéo en 1997. Grâce à la fibre et le haut-débit ces offres se sont multipliées, aux Etats-Unis, en Allemagne, en Australie puis dans d’autres pays industrialisés.
Dans la sphère privée ces centre-relais sont utilisés pour prendre un rendez-vous chez le médecin, souhaitez une bonne fête à sa maman, commander une pizza, raconter ses vacances à sa fille, demander des informations sur un appartement qu’on voudrait louer… Sur le lieu de travail ils peuvent permettre de courts échanges avec des collègues, d’avoir un entretien avec son supérieur hiérarchique, de contacter un fournisseur extérieur, de réserver un billet d’avion…

triptique

Au Royaume Uni, les centres-relais font depuis longtemps partie des services obligatoires financés par les opérateurs en charge de la fourniture du service universel. L’utilisation de ces services est gratuite en dehors du coût de la communication vers le destinataire final.
En Allemagne, l’opérateur historique finance également un service à destination des sourds et malentendants, qui nécessite un abonnement mensuel de 5€ et le paiement d’un prix à la minute en plus de celui de la communication, mais qui inclut un service de centre-relais vidéo.
En Australie, des services équivalents sont offerts gratuitement.
Quant aux Etats-Unis, la création et le développement de multiples centres-relais haut de gamme y est encouragée par un généreux régime de remboursement forfaitaire de chaque minute fournie par les prestataires. Cela a rendu possible l’émergence de nombreux services gratuits pour l’usager, souvent accessibles 24h/24.

Et la France ? Elle a, malheureusement, plusieurs longueurs de retard.

Privé au départ de financement public, les prestataires français n’ont pu que proposer des offres bien plus coûteuses que la communication téléphonique standard. En effet, si le coût d’usage des plateformes techniques peut être fortement dilué par une demande suffisante, le coût de l’interprétariat est lui, incompressible. Ces conditions économiques rendent difficile la fourniture d’offres ciblées sur les particuliers, d’autant que l’étendue de la demande et sa solvabilité étaient jusqu’à présent encore mal connues.

Les centres-relais français sont donc à ce jour cantonnés à un usage essentiellement professionnel, financés par de grandes entreprises. Au départ trois entreprises se partageaient ce marché. L’une a fait faillite (Viable) il n’en reste donc plus que deux : Tadéo qui ne fait que rarement appel à des interprètes diplômés (Master 2 d’interprétation F-LSF) pour assurer ce service, et Elision.

Certes le Président de la République avait annoncé en juin 2008 la création prochaine d’un centre-relais national, une innovation qualifiée d’« essentielle » à l’accessibilité, sur laquelle les institutions devait se mobiliser. L’idée a fait pchittt car les promesses comme son prédécesseur aimait à le répéter, n’engagent que ceux qui y croient.
Parallèlement, des textes français et européens ont préparé la mise en place d’un centre relais d’appels d’urgence. Ce dernier est à présent opérant. Il s’agit du 114 « numéro d’urgence national uniquement accessible par SMS ou Fax, pour les personnes avec des difficultés à entendre ou à parler ».

20101118 visio8 UFR 005

Histoire de se hater avec lenteur pour rattraper le temps perdu le gouvernement a d’abord commandé un rapport à Corinne Erhel qu’elle a intitulé « L’expérimentation d’un centre relais téléphonique pour les personnes sourdes ou malentendantes : enjeux et avenir ».  Puis il a décidé de mettre en place une phase d’expérimentation (pour un budget de 2,8 millions d’€) auprès de 500 sourds. Avec le système de communication Origo (filiale d’Elision) et pendant 1 an (1er juin 2014 – 31 mai 2015), ces 500 « testeurs » ont pu évaluer la qualité et l’intérêt des services de communication proposés (LSF, LPC, Oral, Écrit- vélotypie).

A présent, tout le monde attend. Les premiers résultats de l’expérimentation devraient être publiés en septembre 2015. Certains espèrent que la mise en place des CRT (Centre Relais Téléphonique), sera inscrite dans le projet de loi sur le numérique qui doit être débattu à l’automne conformément à ce qui a été annoncé lors de la dernière Conférence Nationale du Handicap du 11 décembre 2014. D’autres, fourbissent leur armes et se préparent à manifester, car il craignent que le projet soit reporté à… « plus tard ».

1024px-thumbnail

Pour les interprètes en langue des signes, c’est un dossier aux enjeux considérables pour l’avenir de la profession et qui soulève de nombreuses questions.

D’abord il est indispensable, comme pour n’importe quelle situation de communication que nous interprétons (réunion, conférence, rendez-vous médical…) que les professionnels qui interviennent soient diplômés d’un master 2 délivré par l’une des cinq formations reconnues par l’AFILS (Association Française des Interprètes et Traducteurs en Langue des Signes).
Hélas tout le monde n’en est pas convaincu. Ainsi, lors de l’appel d’offres pour réaliser la phase d’expérimentation, la société Tadeo a déposé un recours en justice pour, notamment, demander que la mention de diplômes obligatoire ne figure pas dans les critères de sélection.

Le tribunal (dans son immense sagesse) a débouté l’entreprise avec cette imparable démonstration : « … en exigeant des candidats qu’ils justifient de ce que les agents chargés de la réception et des appels soient titulaires de l’un des diplômes d’interprète LSF d’Etat […] ou d’une qualification professionnelle parmi ceux listés à l’annexe 1 du cahier des clauses techniques particulières pour l’interprétariat en langue des signes française […] le pouvoir adjudicateur a exigé des qualifications qui, même en admettant qu’elles sont de nature à limiter la concurrence, sont objectivement justifiées par l’objet du marché et la nature des prestations de centre relais téléphonique pour les personnes sourdes ou malentendantes à réaliser… »

En effet, il ne faut pas croire qu’une conversation téléphonique peut se contenter d’une mauvaise interprétation, par des professionnels non formés. Les usagers, sourds et entendants, peuvent légitimement exiger de fortes garanties en matière de confidentialité et de conformité des propos. Qui n’a jamais passé un coup de fil à sa banque pour expliquer des difficultés financières ? Qui n’a jamais appelé son patron ou un collègue pour lui parler de problèmes relationnels au sein de son entreprise ? Qui n’a jamais appelé un médecin pour obtenir des résultats d’analyse ? Qui n’a jamais téléphoné à son copain ou sa copine pour lui dire qu’il l’aimait ou qu’ils se séparaient…
Avec les communications téléphoniques on entre dans l’intimité d’une personne, d’un couple d’une famille. Bref, seul des interprètes diplômés respectant le code déontologique de l’AFILS peuvent garantir le respect du secret professionnel et la fidélité aux messages qu’ils traduisent.

Mais si nous exigeons que la possession d’un diplôme bac +5 soit la condition sine qua non pour exercer en centre-relais, il faut alors assurer la formation des futurs interprètes F-LSF.
Quelle sera la demande ? Faudra-t-il embaucher 100, 200, 1500 interprètes en langue des signes prêts à s’enfermer dans une cabine, coincé devant une caméra vidéo ? A ce jour aucune étude sérieuse n’a été menée. En outre les nouvelles technologies (avatar, applications dans les smartphones…) ne vont-elles pas rendre ce service rapidement obsolète ou moins intéressant qu’on pourrait l’imaginer ?
Aujourd’hui nous sommes environ 400 interprètes diplômés en France. Que faire si le projet est officiellement lancé en 2016 ou 2017 sachant qu’il faut au minimum deux ans après la licence pour obtenir ce diplôme ? Qui traduira durant cette période ? Le service sera-t-il accessible 24h/24, 7j/7 ?
Dans ce cas , une question subsidiaire : qui seront les interprètes volontaires pour passer leur nuit du réveillon du 31 décembre à traduire des « bonne années » et des « bonne santé » jusqu’à 7h00 du matin ?

Enfin qui payera ? Le principe de ce service repose sur la gratuité en dehors du coût de la communication vers le destinataire final payé par l’abonné. Cette solidarité avec les sourds et les malentendants aura forcément un prix. Il faudra payer les infrastructures nouvelles et surtout les interprètes en langue des signes, les codeurs LPC et les transcripteurs (de la voix vers l’écrit).
Ou trouver l’argent ? Budget de l’État ? Mécénat ? Financement par le service universel du téléphone via un fond auquel participe l’ensemble des opérateurs de téléphonie ? Prélèvement sur les abonnements de tous les usagers ?

Aux Etats-Unis, les centres-relais coûtent plus de 650 millions de dollars par an aux consommateurs. Avant de vous évanouir en lisant ce chiffre, sachez qu’un rapide calcul ramène la somme à environ deux dollars par personne et par an. Il faut aussi rappeler que ce service bénéficiera à tous, sourds, entendants voulant entrer en communication avec un sourd mais aussi personnes âgées souffrant de déficiences auditives.
Avec cette idée en tête, on comprend que pour notre pays où la population ne cesse de vieillir, cet effort paraîtra peut-être plus anodin au regard du bénéfice qu’il apportera à chaque citoyen.

—————-
Pour apprécier les luttes entre les différentes entreprises proposant des centres-relais, je vous conseille cet article paru sur le site Yanous : « Centre-relais, les grandes manoeuvres »

.

© Stéphan – ( i ) LSF

Google Gesture

Capture d'écran 2014-06-22 10.46.23Google Gesture est un service destiné à traduire, en temps réel, de la langue des signes (américaine pour l’instant – ASL) vers l’anglais. Pour cela, ce système analyse l’activité musculaire, la position des mains, les mouvements des avant-bras grâce à « l’électromyographie » puis les traduit en anglais via dans une application installée dans son smartphone.

Démonstration :

30 Google Gesture from Berghs School of Communication on Vimeo.

Impressionnant !
Mais hélas (sauf pour les interprètes en langue des signes), tout ceci est virtuel, pure fiction (pour le moment).
En effet, cette vidéo a été conçue par les élèves de la Berghs School of Communication pour participer aux Future Lions à Cannes, un concours où les participants doivent imaginer en une courte vidéo les produits ou services de demain d’entreprises mondialement connues.

Pourtant, un jour peut-être des conférenciers, des professeurs… s’exprimant en langue des signes seront « interprétés » directement par Google Gesture et chaque participant écoutera la traduction délivrée par une voix de synthèse via des écouteurs branchés sur son téléphone portable.

La tête dans les étoiles

Dans un Planétarium, il est difficile pour une personne sourde qui assiste aux ballets des étoiles, des planètes, des galaxies, de pouvoir en même temps bénéficier du spectacle et de la traduction en langue des signes des commentaires. En effet, soit il veut admirer les astres mais dans ce cas il faut éteindre les lumières et l’interprète en langue des signes disparaît dans la nuit artificielle, soit il veut voir l’interprète pour suivre les explications mais les lumières allumées lui interdiront d’observer la voûte céleste.

C’est en découvrant ce cruel dilemme qu’un groupe de chercheurs de l’Université Brigham Young aux Etats-Unis a eu l’idée initier un projet intitulé « Sign-Glasses » : il s’agit simplement d’insérer un interprète en langue des signes dans les Google Glass (les fameuses lunettes développées par Google).

Dirigée par Michael Jones, professeur adjoint en sciences informatiques, l’équipe de chercheurs s’est associée à l’Institut Jean Massieu, en Utah, qui accueille des élèves sourds, afin de démarrer les tests.
Comme le souligne le Professeur Jones, « c’est une chance extraordinaire d’avoir pu s’associer à un groupe de sourds qui s’expriment parfaitement en ASL (American Sign Language). Cela nous a permis non seulement de franchir rapidement les nombreuses étapes pour la mise au point de cet outil mais aussi de mieux comprendre leurs attentes« .
Ainsi, c’est grâce aux recommandations des étudiants que l’interprète, qui était au départ visible en bas à droite comme habituellement, a été déplacé au centre du champ de vision, les sourds expliquant qu’il préféraient voir « à travers » les apparitions de l’interprète le spectacle du Planétarium.

google-glass

 

Cette innovation technologique qui était pensée au départ pour rendre enfin accessible le Planétarium pourrait bientôt se décliner vers d’autres applications, comme la visite de musées ou d’expositions ces lunettes faisant office de « visio-guide ». Autre piste de recherche plus originale, la mise au point d’un outil permettant d’améliorer l’alphabétisation des sourds.
C’est justement la nouvelle étape de ce projet « Sign-Glasses » menée  avec l’Université de Georgia Tech. Une personne sourde lisant un livre pourrait grâce à ces lunettes faire apparaître un interprète pour traduire ou donner la définition d’un mot qu’il ne connaîtrait pas. Une sorte de dictionnaire langue des signes en pop-up !

Ce sont alors les étudiants de l’Université de Gallaudet, université américaine réservée aux sourds et malentendants qui pourraient s’en emparer, en attendant qu’un jour, peut-être, une entreprise française se décide enfin à adapter ces Google Glass vers la langue des signes française (LSF) et que des interprètes F/LSF surgissent au fond d’un verre… de lunettes.

Une démonstration (en anglais) de cette invention :

Interprète F/LSF 3.0 sur Xbox 360

photo-kinectAu départ il y a un brevet déposé par Microsoft en février 2009 présentant Kinect : un système de reconnaissance doté d’une caméra utilisant des techniques d’interaction et branché sur la console Xbox 360.

Son principe est simple : vous pouvez interagir avec le jeu sélectionné grâce à la  reconnaissance des mouvements. On peut ainsi jouer sans aucune manette ni périphérique autre que son propre corps. Avec cette caméra, kinect détecte vos mouvements et vous pouvez skier, courir, participer à un match de basket sans tenir de joystick, vous êtes réellement dans le jeu.

Ludique ? Certainement car qu’à la différence de la Wii de Nintendo, vous avez les mains libres.
Mais pas uniquement. En effet cette particularité technologique a permis d’ouvrir un nouveau champ de recherche vers le monde du handicap en général et celui de la surdité en particulier.

Ainsi les chercheurs de Microsoft Asia et ceux de l’Institute of Computing Technology de la Chinese Academy of Science ont collaboré pour mettre en place un joli projet, l’objectif étant de concevoir un système capable de traduire les langues des signes en écriture ou en voix de synthèse, afin de permettre à ces personnes de communiquer aisément avec ceux qui ne connaissent pas leur langue et vice versa.

La façon dont le système fonctionne est assez astucieuse. En enregistrant puis en normalisant les mouvements de la langue des signes, le système utilise un algorithme pour déterminer l’alignement du mouvement de la trajectoire 3D. Une fois que la machine a assimilé les données visuelles, elle essaye de les faire correspondre aux mots qu’elle connaît par ordre de pertinence via son dictionnaire interne. A l’inverse, le système peut aussi traduire les textes sous la forme d’avatars signeurs qui apparaissent à l’écran.

Les 1ers essais en 2012

Pour l’instant, seule l’ASL (langue des signes américaine) est au programme mais il est prévu qu’un grand nombre de langues des signes soient implémentées une à une afin que ce traducteur profite à une majorité de personnes sourdes ou malentendantes.

Autre évolution possible : les chercheurs espèrent que cette technologie permettra un jour aux personnes sourdes d’interagir avec leur ordinateur et ou leur smartphone en utilisant leur propre langue, comme nous  utilisons déjà, depuis quelques années, la reconnaissance vocale de Google Now ou de Siri d’Apple.
Mais cela signifie, au préalable, que les ordinateurs et consoles soient capables de décrypter les langues des signes et d’interagir en conséquence.

Le système développé par Microsoft Asia en Juillet 2013

« Nous considérons que les technologies de l’information devraient être utilisées pour améliorer la vie quotidienne de tous », explique Guobin Wu, responsable de programme de recherche chez Microsoft Research Asia. « Même s’il ne s’agit encore que d’un projet de recherche, nous espérons qu’il sera bientôt possible de mettre en place un outil interactif pour défier la frontière qui nous sépare les sourds et malentendants ».

Il faut, bien sur, saluer ce projet : non seulement il cherche à améliorer la communication entre sourds et entendants mais surtout il consacre la valeur des langues des signes, leur capacité à transmettre des messages, des idées, des concepts. Il les considère comme de vraies langues qu’on peut traiter et traduire comme d’autres langues orales telles que l’anglais, le chinois, l’espagnol…
[Je préfère d’ailleurs ce type de recherches à celles sur la « réparation » de l’oreille via les implants cochléaires qui à l’inverse nient tout intérêt aux langues des signes, se focalisant sur l’oreille cassée et le nécessaire passage par l’oralisme pour communiquer.]
Néanmoins l’efficacité de ces technologies est encore limitée et je doute que ce système puisse traduire fidèlement et agréablement un long discours.

En effet les langues des signes sont vivantes, complexes. Elles ne sont pas qu’une succession de signes. Elles possèdent leur propre syntaxe qui est intimement liée à la perception visuelle, puisque cette langue répond à une logique visuelle et non auditive. Ainsi la grammaire de la LSF n’est pas identique à celle du français (par exemple la place des mots dans la phrase n’est pas la même). Elle se construit comme un plan au cinéma. D’abord le temps (passé-présent-futur), ensuite le lieu (où cela se passe-t-il ? ), puis les acteurs (qui ? ) et enfin l’action (le verbe).

Les signes sont basés sur l’utilisation des mains mais aussi du regard et de l’espace, des expressions du visage (il est admis que les langues des signes sont composées de 5 paramètres) : les configurations des mains, leurs emplacements, leurs orientations et leurs mouvements forment des signes équivalents à des mots disposés devant soi comme sur une scène de théâtre. Les emplacements de ces signes, ainsi que la direction du regard, permettent de visualiser les relations (actif, passif ?), le temps (signes tournés vers l’arrière pour le passé, vers l’avant pour le futur). Le visage et le mouvement des épaules servent aussi à exprimer les nuances du discours par exemple l’ironie, le doute, la fermeté…

Les caméras ont-elles aujourd’hui la précision et la finesse nécessaires pour détecter tous ces paramètres ? Les algorithmes sont-ils assez élaborés pour déterminer avec exactitude l’intention du locuteur ? A voir…
Au mieux, aujourd’hui ce système pourrait sans doute traduire quelques signes simples en mots, quelques phrases basiques (sujet/verbe/complément).
Néanmoins les perspectives sont prometteuses notamment avec l’arrivée des « lunettes intelligentes« .

A noter que ces chercheurs asiatiques ne sont pas les seuls à travailler sur ce projet.
En Janvier 2013, j’ai été contacté par des étudiants de l’Ecole Polytechnique qui voulaient développer un système équivalent dans le cadre de leur projet de fin d’année.
Alors, pendant des heures j’ai signé devant leur caméra kinétique « bonjour », « au revoir », « mon nom est », « ça va »… afin que l’ordinateur enregistre toutes les variations de la LSF et reconnaisse à coup sur ces successions de signes pour les traduire vers l’écrit.

Heureusement pour nous, les interprètes humains, leur objectif n’est pas de créer un super interprète 3.0.
En effet tandis que je leur faisais part de mes reserves sur la fiabilité de ce mode de traduction, ces futurs ingénieurs m’ont expliqué que leur but était de générer un système de reconnaissance pour des conversations simples comme nous pouvons en avoir à un guichet de la SNCF, à la CAF, La Poste, la mairie…
Or avant qu’une machine soit capable de comprendre et de traduire les méandres et autres subtilités de l’administration française nous avons encore de beaux jours devant nous…