Le cerveau humain consomme beaucoup moins de watts que l’IA pour fonctionner

Alexis Tremblay
Alexis Tremblay

Le cerveau humain c’est l’un des systèmes de traitement de l’information les plus efficaces jamais observés, il ne consomme que 20 watts pour alimenter 86 milliards de neuronesgérant des tâches cognitives de très grande complexité.
Avec une masse d’environ 1,3 à 1,4 kg, soit un peu plus de 2 % du poids corporel, le cerveau humain consomme environ 20 % du métabolisme basal du corps. En termes de puissance, cela correspond à ~20 watts moyens continus.

Une valeur étonnamment bas par rapport à quantité d’opérations que le cerveau réalise en parallèle : contrôle moteur, intégration sensorielle, régulation autonome, apprentissage, mémoire et prise de décision. La comparaison avec les systèmes modernes d’intelligence artificielle met en évidence une différence fondamentale : lefficacité énergétique cela ne dépend pas seulement de ce qui est calculé, mais de la façon dont leinformation il est représenté et transformé.

Combien le cerveau humain consomme réellement

La consommation d’énergie du cerveau est étonnamment stable. Que nous soyons allongés sur le canapé, concentrés sur un problème de mathématiques ou plongés dans une conversation, la puissance absorbée reste présente. 20 watts.
Cela se produit parce que le cerveau n’active pas de nouvelles parties lorsque nous réfléchissons davantage : c’est toujours actifet le travail cognitif correspond avant tout à un réorganisation des schémas d’activité neuronaleet non à une augmentation drastique de la consommation. Du point de vue de la consommation d’énergie cérébrale, les processus les plus inutiles sont :

  • Maintien des gradients ioniques (Na⁺, K⁺, Ca²⁺) à travers les membranes neuronales.
  • Transmission synaptiquenotamment la libération et le recyclage des neurotransmetteurs.
  • Propagation de potentiels d’action le long des axones.

Le principal combustible est le glucose et les estimations expérimentales indiquent que la majeure partie de l’énergie est dépensée pour maintenir le système prêt à répondre, c’est-à-dire dans un état dynamique proche de l’équilibre fonctionnel. Garder un réseau prêt à répondre à tout moment a un coût de base qui ne peut être éliminémais que l’évolution a rendu extrêmement efficace.
Un aspect crucial est le suivant :

  • le cerveau est événementiel: les neurones consomment de l’énergie principalement lorsqu’ils transmettent des signaux ;
  • l’activité est clairsemée et asynchrone, tous les neurones ne sont pas actifs en même temps ;
  • le traitement est massivement parallèle.

Ceci explique pourquoi le consommation le total reste presque constante entre repos et tâches cognitives complexes.

Combien consomme l’intelligence artificielle

Si nous portons notre attention sur l’intelligence artificielle, la situation change radicalement. Des systèmes comme ChatGPT sont implémentés sur des ordinateurs numériques et basés sur des réseaux de neurones artificiels profonds. Sur le plan informatique, le fonctionnement de ces modèles est une longue séquence de opérations mathématiques explicitesça: multiplications et additions entre nombres, organisées en couches. Chaque fois que le modèle génère une réponse, ces opérations doivent être répétées.

Image

Chaque opération a un coût énergétique bien définicar cela nécessite le mouvement physique de la charge électrique dans les transistors. Contrairement au cerveau, qui exploite les dynamiques physiques déjà présentes dans le réseau neuronal, l’intelligence artificielle doit tout recalculer pas à pas. La consommation d’une seule réponse peut être relativement faible, mais l’essentiel est que ce coût se répète pour chaque demandesans jamais s’annuler.

Le poids caché des infrastructures

La véritable consommation d’énergie de l’IA apparaît lorsque vous regardez au-delà de la seule réponse. Les grands modèles sont formés sur des clusters de milliers de processeurs pendant des semaines ou des mois, avec des puissances de l’ordre de mégawatts. L’énergie totale dépensée dans cette phase peut aller jusqu’à centaines de milliers ou millions de kilowattheures. À cela s’ajoute le coût permanent des datacenters : serveurs toujours allumés, systèmes de refroidissement, redondance et fiabilité. Même lorsque personne ne remet en question le modèle, l’infrastructure reste opérationnelle. Il s’agit d’une consommation continue, qui ne dépend pas directement d’une utilisation instantanée.

Architecture : d’où vient vraiment la différence

différence Le fondamental entre cerveau et intelligence artificielle n’est pas seulement quantitatif, mais de construction. Dans les ordinateurs numériques, la mémoire et le calcul sont séparés. Les données doivent être transférées en permanence de la mémoire aux unités de calcul et vice versa. Ce déplacement d’informations dans l’espace est l’une des opérations les plus coûteuses d’un point de vue énergétique. Or, dans le cerveau humain, la mémoire et le calcul coïncident.

Les informations sont intégrées dans les synapses et l’organisation du réseau. Apprendre, c’est modifier les connexions localement, ne déplacez pas les données d’un référentiel central. D’un point de vue physique, cela réduit considérablement le coût énergétique de l’informatique.
Cette différence devient encore plus évidente si l’on considèreapprentissage: l’intelligence artificielle apprend avant tout lors d’une phase dédiée, la formation, distincte de l’usage et extrêmement gourmande en énergie. Une fois la formation terminée, le modèle est utilisé, mais l’apprentissage proprement dit a déjà eu lieu.
Le cerveau humain, au contraire, il apprend continuellement au fur et à mesure qu’il fonctionne. Il n’y a aucune phase pendant laquelle il arrête de fonctionner pour s’entraîner.
Si l’on fait une estimation très grossière et considère une consommation moyenne de 20 watts pour les 20 premières années de vie, on obtient une énergie totale de l’ordre de 3 500 kilowattheures. Une valeur comparable à la consommation électrique d’un appartement pendant quelques mois.

À la base de tout cela, il y a une différence historique. LELe cerveau humain est le résultat de millions d’années d’évolutionau cours de laquelle l’efficacité énergétique a été une pression sélective clé. L’espace et l’énergie étaient des ressources limitées.
L’intelligence artificielle, en revanche, est le produit de quelques décennies de développement technologique, au cours desquelles l’énergie a souvent été traitée comme une ressource évolutive : si plus de puissance est nécessaire, de nouveaux serveurs sont ajoutés.
La comparaison entre le cerveau humain et l’intelligence artificielle ne nous dit pas que l’un est « plus intelligent » que l’autre. Cela nous montre quelque chose de plus profond : lL’intelligence est toujours incarnée dans une structure physiqueet son coût énergétique dépend de la manière dont cette structure est réalisée.

L’intelligence artificielle en est une outil très puissantmais paie sa puissance avec une consommation d’énergie élevée. Le cerveau humain, quant à lui, représente un compromis extraordinaire entre capacité de calcul, robustesse et efficacité.