Imaginez que transformer les pensées en mots audibles: c’est ce qu’ont fait des chercheurs de Stanford avec un nouvel implant neuronal capable de transformer en mots le langage interne, c’est-à-dire le dialogue qui se déroule dans notre esprit sans le dire à voix haute. Tout cela est rendu possible grâce à une série de microélectrodes implantées dans le cortex cérébralcapables d’interpréter les signaux électriques produits par une personne lorsqu’elle « croit parler » et de les traduire en temps réel sous forme de langage. Aussi, pour protéger confidentialité cognitive parmi ceux qui l’utilisent, la technologie utilise un système d’activation via « mot de passe mental ».
Comment fonctionne le nouvel implant cérébral qui lit les pensées : la phase initiale
De toutes les capacités humaines, la communication verbale est peut-être celle qui définit le plus l’être humain. Pour cette raison, la perte de la capacité de produire un langage parlé due à maladies neurodégénératives ou traumatismes crâniens cela devient en réalité la privation d’une partie de soi. Imaginez maintenant qu’une technologie puisse lire directement le langage interne et le transformer en mots audibles, leur redonnant ainsi la capacité de communiquer. C’est ce qu’il a réussi à faire une équipe de l’Université de Stanforden développant un implant cérébral capable de décoder l’activité neuronale et de la traduire en langage, avec une précision allant jusqu’à 74%.
Le développement deinterface cerveau-ordinateur (BCI) il a suivi une certaine progression avant d’arriver aux fonctionnalités complexes d’aujourd’hui. Au début de leurs expériences, le professeur agrégé de neurochirurgie Frank Willett et ses collègues ont utilisé les interfaces pour aider les personnes dont la paralysie les empêchait de parler. Dans le détail, ils ont été utilisés microélectrodes implantées dans le cortex moteurla région du cerveau d’où proviennent les motoneurones responsables de tous les mouvements musculaires, y compris ceux de la bouche et de la langue, visant à produire un mot. Quand une personne essaie de parler, des dieux apparaissent signaux neuronaux qui sont enregistrés par le dispositif à électrodes. Ces signaux sont ensuite transmis par câble à un algorithme informatique qui les traduit en parole audible ou en mouvement du curseur sur des lettres informatiques.
Décoder activité neuronale responsable du mot que vous voulez prononcer, les chercheurs utilisent apprentissage automatique ou apprentissage automatique (c’est-à-dire le mécanisme d’IA qui permet aux systèmes d’apprendre de l’expérience sans être explicitement programmés). En bref, chaque mot ou son en produit un modèle d’activité neuronale légèrement différents les uns des autres. Lorsqu’une personne essaie de prononcer différents phonèmes, l’ordinateur enregistre ces modèles neuronaux et l’algorithme d’apprentissage automatique apprend à connecter chacun d’eux au phonème correspondant. Lorsque l’utilisateur essaie de parler, le système reconnaît les schémas neuronaux déjà appris correspondant aux phonèmes et l’ordinateur les assemble ensuite dans le bon ordre pour former des mots et des phrases.
Comment l’implant traduit-il le langage intérieur en mots
Récemment, les scientifiques ont franchi une autre étape importante : ils ont étudié les signaux cérébraux liés à « discours intérieur » (aussi appelé « monologue intérieur »). L’ambition de Frank Willet et Erin Kunz de l’Université de Stanford était capable de décoder même des mots et des phrases qui ne nécessitaient pas d’effort musculaire pour être produits. Ils voulaient donc savoir si un système BCI pouvait fonctionner uniquement sur la base de l’activité neuronale évoquée par la parole imaginée, plutôt que sur des tentatives de production physique de la parole. En effet, pour les personnes paralysées, essayer de parler peut être lent et laborieux et, si la paralysie est partielle, peut produire des sons gênants et des difficultés à contrôler la respiration. Au cours de l’expérience menée sur quatre patients ayant perdu l’usage de la parole à cause de accident vasculaire cérébral ou maladie du motoneurone – cellules nerveuses qui contrôlent les muscles volontaires – (comme la SLA), les participants ont été invités à imaginer des mots et des phrases.
Les deux études de neuroimagerie que des études électrophysiologiques ont démontré que le langage interne implique un réseau cortical similaire, bien que non identique, à celui du langage produit physiquement dans le cortex moteur ; on a donc pensé que les électrodes positionnées pour décoder la tentative de parole pourraient également permettre le décodage du langage interne. Les différences neuronales précises entre le langage mental et le langage produit restent à l’étude. Quoi qu’il en soit, l’intelligence artificielle était encore capable de décoder certains signaux en phonèmes, les combinant pour former des mots et des phrases en temps réel, à partir d’un vocabulaire d’environ 125 mille mots. Le résultat ? Chez deux patients, le système atteint une précision de 74%, et tout cela sans aucun effort physique. Lors de certains tests, le BCI a également pu identifier des nombres comptés mentalement.
Le problème de la vie privée et le mot de passe mental : les limites du système
Le langage intérieur, bien qu’avec une intensité différente, partage certaines régions motrices du cerveau avec la tentative de langage. Cela a soulevé la possibilité que un BCI pourrait finir par décoder quelque chose que l’utilisateur avait seulement l’intention de penserne le dis pas à voix haute. Même si les interfaces étaient conçues pour décoder le langage tenté et pouvaient donc générer des résultats déformés et inexacts lorsqu’elles étaient appliquées au langage interne, même le risque de pouvoir divulguer des mots que l’on voulait « garder pour soi » soulevait une question éthique importante.
L’ambition des chercheurs était donc (et reste) de distinguer « l’intention motrice » de l’intention silencieuse pour éviter le risque de sortie indésirable. Ils ont ainsi développé un modèle dans lequel un « mot-clé » prononcé en interne peut être détecté avec une grande précision, permettant à l’utilisateur de « verrouiller » et de « déverrouiller » le système. C’est en quelque sorte changer mental qui ne s’allume que lorsqu’une personne en imagine un « mot de passe mental » préétabli. Dans le cas de l’étude, la phrase sélectionnée était «Chitty-Chitty-Bang-Bang« , reconnu avec une précision supérieure à 98%. En l’absence de ce mot clé, le système reste totalement inactif. Problèmes de confidentialité sont en réalité concrets : un appareil capable de traduire des pensées pourrait, en théorie, également révéler des contenus non destinés à la communication ; le commutateur mental impose plutôt un consentement actif avant l’activation.
Il convient toutefois de souligner que Les BCI implantés ne sont pas encore une technologie disponible et en sont encore aux premiers stades de recherche et d’expérimentation ; ils sont également réglementés par des agences fédérales extérieures afin de maintenir les normes d’éthique médicale les plus élevées. Néanmoins, l’idée qu’ils puissent un jour être largement diffusés est une perspective véritablement prometteuse.