Des chercheurs américains sont parvenus, grâce à une intelligence artificielle, à décoder des phrases entières à partir des signaux neuronaux émis en temps réel. Un espoir pour des personnes paralysées privées de parole. Mais cette ébauche de neuroprothèse soulève des réserves éthiques.
Nous sommes en 2030. Sur son lit d’hôpital, une patiente, dans l’incapacité de s’exprimer depuis un accident vasculaire cérébral (AVC), pense : « J’ai soif. Pourrais-je avoir de l’eau ? » Aussitôt, l’ordinateur relié aux implants cérébraux traduit sa pensée en mots et une voix synthétique alerte les soignants. Équipés du même système de traduction, d’autres patients, paralysés par une sclérose latérale amyotrophique (maladie de Charcot) ou un syndrome d’enfermement (locked-in syndrome), ont retrouvé la capacité de s’exprimer…
S’il n’existe pas encore, ce « décodeur de paroles » est aujourd’hui en bonne voie. L’équipe de Joseph Makin, David Moses et Edward Chang, de l’université de Californie à San Francisco (USCF) aux États-Unis, financée par Facebook, vient en effet de franchir une étape cruciale dans sa conception. Le système d’intelligence artificielle (IA) qu’ils ont mis au point décode déjà directement des phrases du cerveau, en temps réel, avec 97 % de justesse. Un record ! Comme les chercheurs l’ont rapporté en mars 2020 dans une étude publiée dans la revue Nature Neuroscience.
CONTEXTE
Jamais la course à l’implant cérébral n’a été aussi disputée. Alors que Facebook finance des projets de neuroprothèses pour décoder la parole dans le cerveau, l’Américain Elon Musk investit 150 millions de dollars pour mettre au point son dispositif Neuralink qui devait faire l’objet d’un essai clinique avant fin 2020. Quant au projet BrainCom, financé par la Commission européenne à hauteur de 8,3 millions d’euros sur un total de 8,6 millions, il vise à décrypter les circuits neuronaux de la parole. Un espoir pour les patients dans l’incapacité de s’exprimer. Et pour certains, l’idée d’en équiper un jour des humains bien portants.
Pour l’expérience, quatre patientes américaines – déjà équipées d’électrodes dans le cadre de recherches sur les foyers épileptiques – se sont portées volontaires. La première phase a consisté à entraîner un algorithme, connecté aux électrodes. Pour ce faire, les patientes ont répété plusieurs fois à haute voix des séries de 30 à 50 phrases, contenant jusqu’à 250 mots différents, pendant une quarantaine de minutes. Cela afin que le système apprenne à associer l’activité de leur cortex (électro-corticogramme ou ECoG) à des probabilités de phrases. Puis, les volontaires ont pioché au hasard des phrases que l’IA a dû aussitôt traduire en fonction de l’activité du cerveau. « Le but de notre étude était de décoder la parole à partir des signaux neuronaux, explique Joseph Makin, coauteur des travaux. Et nous sommes parvenus à atteindre un taux d’erreur d’à peine 3 % sur un corpus limité de cinquante phrases. » Du jamais vu ! Un record atteint pour l’heure uniquement lorsque la phrase est articulée et exprimée à haute voix. Les chercheurs ayant bon espoir de parvenir à identifier des phrases uniquement lorsqu’elles seront prononcées silencieusement.
Le système nécessite l’implant invasif d’une neuroprothèse – une grille de centaines d’électrodes réceptrices – posée sur le cortex. Une première interface « cerveau-machine » de ce type dédiée à la parole avait déjà été implantée en 2007 chez un patient atteint du syndrome d’enfermement par Frank Guenther, de l’université de Boston (États- Unis), et le neurologue Philip Kennedy. Ils étaient parvenus à décoder des voyelles. « La première question est de déterminer le site d’implantation, détaille Blaise Yvert, directeur de l’équipe Neurotechnologie et dynamique des réseaux au laboratoire Inserm BrainTech de l’université Grenoble Alpes, qui coordonne pour la France le projet européen BrainCom pour développer des neuroprothèses de décodage de la parole. En effet, il n’existe pas un “centre de la parole” dans le cerveau. Les aires du langage couvrent les aires temporales (auditives), celles de Wernicke (sémantique, compréhension) et le lobe frontal avec l’aire de Broca et le cortex moteur et prémoteur pour la production de langage. » À chaque équipe, ses préférences !
Penser un mot active un mouvement articulatoire
« À l’instar de l’UCSF, nous avons fait le choix d’implanter les électrodes sur les aires motrices, qui détectent l’activité des mouvements articulatoires de la parole », expose Blaise Yvert. Les électrodes enregistrent alors l’ECoG de la zone motrice qui donne des ordres aux mouvements articulatoires de la langue, des lèvres, du larynx, de la mâchoire et du voile du palais (velum) lors de la prononciation de phonèmes. « Notre objectif n’est pas de décoder les “pensées” mais le discours parlé, que celui-ci soit prononcé à haute voix ou juste mentalement, précise Joseph Makin. Notre hypothèse est que les personnes qui sont victimes du syndrome d’enfermement, par exemple, peuvent toujours envoyer les commandes appropriées aux articulateurs de la parole (lèvres, langue, mâchoire), même si ces commandes cérébrales n’atteignent plus leur cible. Et notre étude montre que nous parvenons bien à les décoder. » Autrement dit, penser une phrase et la prononcer effectivement déclencheraient des activités corticales comparables. « Cela a été déjà démontré dans le cas de commandes de mouvements moteurs du bras chez des patients paralysés », confirme Blaise Yvert. Ces ECoG sont ensuite convertis, par les algorithmes, en mouvements articulatoires probables, qui sont eux-mêmes traduits en phrases potentielles. « Notre travail est ce que l’on appelle une démonstration de faisabilité [proof of concept], poursuit Joseph Makin. Nous avons montré quel type de décodage était possible. Nous devons à présent nous intéresser à des patients qui ne peuvent plus parler et qui voudront bien se porter volontaires pour qu’on leur implante ces électrodes à plus long terme. » L’équipe entend également augmenter le nombre de phrases-modèles et assouplir le système. « Certes, l’algorithme parvient à prédire en direct des chaînes de mots et les chercheurs ont montré que celles-ci produisent avec une très bonne justesse les phrases attendues, commente Blaise Yvert. Mais le système est très contraint. C’est-à-dire qu’il n’est pas sûr qu’il reconnaisse des phrases dont les mots sont différents ou pas dans le même ordre que ceux des phrases apprises au départ par l’IA. »
Des systèmes plébiscités par les géants de l’Internet
Le système idéal serait de pouvoir décoder n’importe quelle phrase « avec des milliers de mots dans n’importe quel ordre », souligne Blaise Yvert. On en est encore loin. Autre difficulté : comment entraîner le système lorsqu’il sera testé chez des patients qui ne peuvent pas parler ? Sans oublier les questions éthiques. « Comment faire en sorte que la personne équipée garde son autonomie ? s’interroge ainsi Hannah Maslen, philosophe à l’université d’Oxford (Royaume-Uni) qui réfléchit avec Éric Fourneret à l’avenir de ces systèmes, au sein de Brain-Com. Il faut s’assurer que le dispositif reproduit bien ce que la personne veut dire et se tait quand elle le souhaite. Ces questions fondamentales doivent être résolues dès la conception du système. » Enfin, ces neuroprothèses, plébiscitées par des géants de l’Internet comme Facebook, n’équiperont-elles pas un jour des personnes valides pour « augmenter » leurs capacités ? « Personnellement, je rejette cette idée », assure Joseph Makin. Certains risquent de ne pas faire de même.
DISPOSITIFS NON INVASIFS
Des ondes cérébrales pour épeler les mots
Si les aides à la parole futuristes nécessitent l’implantation d’électrodes dans le cerveau, d’autres solutions, non invasives, utilisent déjà l’électroencéphalogramme (EEG, voir le lexique ci-dessous). « La mesure est plus grossière que les implants intracérébraux, certes, mais plus facile à mettre en œuvre », explique Fabien Lotte, directeur de recherche au centre Inria de Bordeaux. Certaines interfaces cerveau-machine utilisent l’EEG pour aider les utilisateurs à épeler des mots. « L’une des techniques phares vise à détecter l’onde cérébrale P300, qui apparaît 300 millisecondes après un stimulus rare et attendu », poursuit Fabien Lotte. Si une personne regarde un alphabet défiler sur un écran, son cerveau émettra l’onde P300 lorsque la lettre cherchée apparaîtra et enverra l’information à l’algorithme qui écrit sous la dictée. L’inconvénient du système c’est le temps de détection, 12 secondes par lettre. La start-up néerlandaise MindAffect a peut-être trouvé la parade. Elle consiste à enregistrer l’activité du cortex visuel lorsque la personne regarde sur un écran les lettres de l’alphabet qui clignotent chacune selon un code particulier. « En détectant le code que le cortex visuel voit, le système reconnaît la lettre correspondante, explique Ivo de la Rive Box, fondateur et directeur de MindAffect. Après une minute d’entraînement seulement, le dispositif peut reconnaître chaque lettre en moins de 2 secondes ! » Fabien Lotte étudie désormais la manière de bien apprendre à se servir de ces systèmes d’expression d’un genre nouveau. C’est le projet Brain Conquest (conquête du cerveau) de l’ERC (European Research Council). Tout un programme !
Lexique
INTERFACE CERVEAU-MACHINE : Système de liaison directe entre un cerveau et un ordinateur, permettant à un individu d’effectuer des tâches sans passer par l’action des nerfs périphériques et des muscles.
EEG : Électroencéphalogramme, c’est l’enregistrement de l’activité des neurones du cortex (couche externe recouvrant les hémisphères du cerveau), réalisé avec des électrodes posées sur le cuir chevelu.
ECOG : Électrocorticogramme, c’est l’enregistrement de l’activité des neurones du cortex, réalisé par des électrodes posées directement sur le cerveau.
VOUS POUVEZ EN APPRENDRE PLUS SUR MICROSOFT 365 ICI
VOUS POUVEZ EN APPRENDRE PLUS SUR MICROSOFT TEAM ICI