à l’intérieur de la technologie Neuralink

Alexis Tremblay
Alexis Tremblay

Ces derniers mois, on a beaucoup parlé de puce dans le cerveaunotamment grâce à Lien neuronall’une des sociétés fondées par Elon Musk. Mais derrière les gros titres sensationnalistes et les promesses futuristes se cache une véritable technologie, étudiée depuis des décennies dans les laboratoires de neurosciences : BCIInterface cerveau-ordinateur, ou interfaces cerveau-ordinateur. Les BCI ne lisent pas les contenus mentaux, les intentions abstraites ou les désirs cachés. Ils font quelque chose de bien plus concret et de bien plus intéressant d’un point de vue scientifique : ils mesurent les signaux physiques produits par le cerveau et les traduisent en commandes.

Du cerveau à l’ordinateur : parce que tout part de l’électricité

Notre cerveau est composé d’environ 86 milliards de neurones, des cellules spécialisées qui communiquent entre elles par le biais d’impulsions électriques et de signaux chimiques. Chaque neurone produit de minuscules impulsions, mais lorsque des millions de neurones se déclenchent ensemble, leur signal devient mesurable.
C’est le principe physique qui rend les BCI possibles : elles mesurent l’activité électrique coordonnée de populations neuronales entières et créent un canal de communication direct avec une machine.

Mais tous les BCI ne mesurent pas l’activité cérébrale de la même manière.

Comment fonctionnent les interfaces cerveau-ordinateur (BCI)

De nombreuses interfaces cerveau-ordinateur découlent historiquement de l’électroencéphalogramme (EEG), c’est-à-dire de l’enregistrement de l’activité électrique du cerveau à partir de la surface de la tête.
Des systèmes comme Neuralink n’utilisent cependant pas l’EEG du cuir chevelu : ils enregistrent les signaux directement du cerveau, via des micro-électrodes implantées dans le cortex. Le principe physique est cependant le même : le cerveau est un système électrochimique et son activité produit des signaux mesurables. Ce qui change, c’est où et avec quelle résolution ces signaux sont collectés.

Les électrodes implantées dans le cortex, comme celles de Neuralink, sont en contact direct avec les neurones, notamment dans le cortex moteurla zone qui planifie et exécute les mouvements.
Contrairement à l’EEG : ils n’enregistrent pas de signaux atténués provenant du crâne, ils ne « voient » pas des millions de neurones ensemble, mais ils captent l’activité locale de petites populations neuronales.

Ces électrodes mesurent : les potentiels d’action (pics), les variations de l’activité locale, des schémas temporels extrêmement précis.
Le signal est plus riche, plus stable et beaucoup plus informatif, et c’est ce qui permet un décodage fin des mouvements.

Intention de mouvement : ce qui change dans le cerveau

Lorsque l’on décide de bouger une main, ou même simplement lorsque l’on imagine le faire, une réorganisation de l’activité neuronale se produit dans le cortex moteur. Il n’y a pas de neurone qui « signifie » la main droite. Ils existent modèles distribuésdans lequel : certains neurones augmentent leur cadence de décharge, d’autres la diminuent, l’équilibre global change systématiquement. Ces modèles sont répétable: Chaque fois qu’une personne imagine le même mouvement, le schéma d’activité neuronale est similaire.
Et c’est précisément cette régularité qu’un BCI peut exploiter.

L’ordinateur connecté au système ne reçoit pas les fréquences de décharge, les temps, les corrélations entre électrodes. Le signal neuronal est amplifié et numérisé, les caractéristiques pertinentes sont extraites (quels neurones se déclenchent, quand et avec quelle intensité), les algorithmes d’apprentissage automatique associent ces modèles à une action.

Lors de l’entraînement, il est demandé à la personne de réaliser des actions précises : imaginer bouger la main droite, imaginer saisir une bouteille avec la main gauche, se détendre. Le système apprend, pour cette personne spécifique, quelle configuration neuronale correspond à quelle intention motrice.
Lorsque la configuration réapparaît, l’ordinateur ne « comprend » pas ce que la personne veut faire : reconnaît un modèle déjà connu et le transforme en action extérieure, déplacer un curseur, une prothèse, un bras robotique.

Chez de nombreuses personnes souffrant de lésions médullaires, d’accidents vasculaires cérébraux ou de maladies neurodégénératives, le problème n’est pas que le cerveau « ne sait plus quoi faire ». Les circuits moteurs continuent de générer l’activité nécessaire au mouvement, mais les informations ne parviennent plus aux muscles. C’est précisément à cet endroit que s’insèrent les interfaces cerveau-ordinateur : elles interceptent l’activité neuronale en amont de la lésion et la détournent vers une voie alternative comme un ordinateur, une prothèse, un synthétiseur vocal. Fonctionnellement, c’est comme construire un pont artificiel qui contourne la partie endommagée du système nerveux.

C’est précisément ce mécanisme qui a rendu possible certains des résultats les plus impressionnants obtenus jusqu’à présent avec les interfaces cerveau-ordinateur. Et c’est là qu’il convient d’apporter une précision importante : Neuralink n’est pas la seule entreprise travaillant dans ce domaine, ni la première.

Au-delà de Neuralink : d’autres projets sur les interfaces cerveau-ordinateur

Depuis plus de vingt ans, des groupes de recherche et des entreprises développent des BCI en milieu clinique, souvent à l’écart des projecteurs médiatiques, mais avec un impact énorme sur la vie des personnes impliquées. En particulier, certains des résultats les plus avancés proviennent du monde académique. Des chercheurs de Université de Californie à San Francisco et de Université de Stanford ils ont développé des systèmes capables de rétablir la communication avec des personnes qui l’avaient complètement perdue. Dans l’une de ces études, une patiente qui ne pouvait pas bouger ses muscles faciaux ni prononcer un mot pendant environ 18 ans a pu à nouveau communiquer grâce à un BCI implanté dans son cerveau. Environ 200 électrodes ont été installées dans le cortex cérébral, dans des zones impliquées dans la planification du langage. L’activité neuronale enregistrée a été décodée et transformée en mots, en une voix numérique et même en un avatar 3D capable de déplacer le visage d’une manière cohérente avec ce que la personne voulait dire. Même dans ce cas, le système ne « lisait » pas les phrases dans l’esprit, mais interceptait l’intention motrice de parler : les signaux que le cerveau aurait envoyés à la langue, aux lèvres et au larynx si le corps avait pu les exécuter.

Lorsque les interfaces cerveau-ordinateur ont commencé à se développer il y a une vingtaine d’années, de nombreux systèmes reposaient sur des électrodes positionnées à l’extérieur de la tête, à la surface du cuir chevelu. Ces approches non invasives ont une limite évidente : le signal est plus faible et plus bruyant, car il doit traverser le crâne et est contaminé par l’activité des muscles, des yeux et des mouvements du corps.

En même temps, ils ont un énorme avantage : ils ne nécessitent pas de chirurgie. Et c’est précisément sur ce front que la technologie fait des progrès notables, grâce à de meilleurs capteurs et à des algorithmes de plus en plus sophistiqués.

De l’hôpital à la vie quotidienne : quand les interfaces cerveau-ordinateur arriveront

À ce stade, la question se pose naturellement : tout cela arrivera-t-il un jour dans nos maisons ? Ou, plus précisément, sur nos têtes ? Pour l’instant, la réponse est claire : pas tout de suite, ni sous forme d’implants cérébraux. Les BCI invasives ont du sens lorsque les bénéfices sont énormes et dépassent largement les risques : paralysie sévère, troubles du mouvement, perte totale de communication. La première véritable utilisation « par le consommateur » des interfaces cerveau-ordinateur viendra probablement d’une autre direction : BCI non invasifs.
Casques, bandeaux, lunettes et visionneuses de réalité virtuelle qui, au lieu d’enregistrer l’activité de neurones individuels, mesurent l’activité coordonnée de grands groupes neuronaux depuis la surface de la tête.
Il existe déjà aujourd’hui des appareils capables d’estimer l’attention, la fatigue mentale et le stress, et d’utiliser ces informations pour adapter les jeux vidéo, les environnements virtuels, la musique, les notifications ou les pauses cognitives en fonction de l’état mental de l’utilisateur.