2023 M11 28
Pat Bennett est une Américaine de 68 ans atteinte, depuis 2012, de la maladie de Charcot. Une maladie neurodégénérative qui se traduit par une paralysie progressive des muscles. Plus de dix ans après son diagnostic, les symptômes se sont aggravés. Aujourd’hui, Pat est privée de la parole et se retrouve dans l’incapacité totale de s’exprimer de manière intelligible — elle ne peut plus utiliser les muscles de ses lèvres, de sa langue, de son larynx et de ses mâchoires. Du moins, c’était le cas avant l’intervention d’une équipe de chercheurs issus de l’université de Stanford.
Leurs travaux, publiés dans la revue Nature le 23 août 2023, permettent de comprendre comment ils ont réussi à lui redonner la parole grâce à des implants cérébraux et une intelligence artificielle qui traduit en temps réel les signaux du cerveau — ce qu’elle essaie de dire, en gros — en phrases qui s’affichent sur un écran. Car si ses muscles ne peuvent plus exécuter les instructions de son cerveau, elle peut encore les formuler dans sa tête. Et c’est exactement ce que les chercheurs réussissent à décrypter.
Pour arriver à cette prouesse technologique, les chercheurs n’ont pas fait appel à un mentaliste. Ils ont implanté dans le cerveau de Pat 64 mini-électrodes, à la surface du cortex cérébral. L’opération a eu lieu en 2022. Les équipes de Stanford ont ensuite entraîné un algorithme d'intelligence artificielle spécialisé dans la sémantique à traduire les pensées de la patiente afin que les propos retranscris soient les plus justes possibles. « Ce système est entraîné à savoir quels mots doivent précéder les autres, et quels phonèmes [un élément sonore du langage parlé] forment quels mots. Si certains phonèmes ont été mal interprétés, il peut quand même faire une bonne estimation », expliquent les chercheurs.
Résultat : après plusieurs mois de tests, l’Américaine parvient à parler à la force de son esprit, jusqu’à 62 mots par minute. On est (encore) loin d’un débit « normal » (environ 160 mots par minute). Mais c’est trois fois plus vite que les précédents essais menés sur cette thématique en 2021. « Ces premiers résultats ont prouvé le concept, et la technologie finira par le rattraper pour le rendre facilement accessible aux personnes qui ne peuvent pas parler », a écrit Pat Bennett. « Pour les personnes non verbales, cela signifie qu'elles peuvent rester connectées au reste du monde, peut-être continuer à travailler, entretenir des relations amicales et familiales », affirme quant à elle l’équipe d’universitaires.
In the latest 90 Seconds, Lisa Kim heads to the Neural Prosthetics Translational Lab to see promising research using a brain-computer hook-up that could someday allow speech-disabled people to have a normal conversation. #ALS #Neurosciencehttps://t.co/7ZbqkaPWAv pic.twitter.com/qiyEH4HAdW
— Stanford Medicine (@StanfordMed) August 25, 2023
À l’université de Californie, basée à San Francisco, d’autres chercheurs ont également mené des tests similaires sur une patiente, Ann Johnson, qui a perdu la parole après un AVC. C’était il y a 18 ans. Cette équipe, dont les résultats ont aussi été publiés dans la revue Nature, affirme qu’elle a réussi à obtenir un débit de 78 mots par minute, soit 16 de plus que l’équipe de Stanford. Leur taux d’erreur de traduction est estimé à 25%. « Une communication plus rapide, plus précise et plus naturelle fait partie des besoins les plus importants des personnes qui ont perdu la capacité de parler à la suite d'une paralysie grave », écrivent dans leur étude les chercheurs de l'université de Californie.
Implanter la parole
Mais que soit pour Pat ou Ann, la prise en main des outils a duré plusieurs mois, comme l’explique L’Express dans cet article. Les deux patientes ont dû dire et redire des milliers de phrases afin que le logiciel enregistre leur activité cérébrale et puisse, par la suite, décrypter ce qu’elles veulent prononcer. « Les mouvements de lèvres, de langue et de mâchoire que la personne paralysée tente inconsciemment de faire varient selon les mots choisis. Ce sont ces légères différences que nos algorithmes exploitent pour reconstruire ce qui aurait dû être prononcé », explique le chercheur Blaise Yvert de l’Institut des Neurosciences de Grenoble, interrogé par L’Express.
Un travail de longue haleine, certes, mais qui donne aussi de l’espoir pour la suite. Aux États-Unis, des sociétés spécliasées comme Neuralink (Elon Musk), Paradromics, Precision Neuroscience ou Blackrock Neurotech travaillent afin d’améliorer leurs technologies et permettre une meilleure analyse et traduction des signaux. Avec, en ligne de mire, l'idée de redonner aux personnes privées de parole un outil rapide et efficace afin de renouer la communication avec le monde extérieur.