Comment fonctionne un dispositif neuromorphique au quotidien

En 2019, le projet Loihi d’Intel a permis de réaliser plus de 1 000 fois l’efficacité énergétique d’une puce classique sur certaines tâches d’intelligence artificielle. Cette architecture ne repose ni sur des processeurs traditionnels ni sur des réseaux neuronaux purement logiciels.Aucune compatibilité native n’existe entre ces circuits spécialisés et les standards matériels informatiques actuels. Pourtant, leur conception s’inspire directement du fonctionnement biologique du cerveau, ouvrant la voie à de nouveaux paradigmes en calcul et en apprentissage automatique.

Comprendre l’informatique neuromorphique : origines, principes et enjeux

L’informatique neuromorphique ne s’est pas inventée en un claquement de doigts. Dès les années 1980, Carver Mead, chercheur californien, a proposé une idée jugée folle à l’époque : pourquoi ne pas fabriquer des circuits électroniques capables d’imiter la dynamique du cerveau humain ? Ce pari a ouvert une brèche dans la routine informatique : dépasser le fameux schéma von Neumann qui sépare mémoire et calcul, et finit par provoquer le redouté goulot d’étranglement.

Le cerveau, lui, ne s’encombre pas de ce cloisonnement. Ses 86 milliards de neurones et ses centaines de milliers de milliards de synapses traitent l’information sous forme d’impulsions électriques, des spikes. De là sont nés les spiking neural networks (SNN), c’est-à-dire des réseaux de neurones à pointes qui transmettent l’information par événements brefs, à rebours des réseaux neuronaux standards. Les neurones artificiels embarqués dans les puces neuromorphiques suivent cette logique : ils ne s’activent que si un certain seuil est atteint, limitant drastiquement la consommation d’énergie.

Des projets comme le Human Brain Project, entre Grenoble et Zurich, s’efforcent de modéliser ces réseaux complexes et d’affiner leur reproduction sur silicium. De IBM à Intel, les entreprises multiplient les prototypes qui embarquent des millions de neurones artificiels et des centaines de millions de synapses sur une seule puce. Les rapports de Gartner annoncent la couleur : ce domaine est appelé à transformer l’apprentissage automatique, en répondant à la montée en flèche de la demande énergétique dans les data centers.

Comment fonctionne un dispositif neuromorphique ? Exemple concret à la loupe

Un dispositif neuromorphique s’inspire du cerveau pour aborder le calcul différemment d’un CPU ou GPU classique. Prenons la puce Loihi 2 conçue par Intel. Véritable concentré d’innovation, elle regroupe plus d’un million de neurones artificiels et 120 millions de synapses, tous capables d’apprendre et de s’ajuster en temps réel à leur environnement. Chaque unité de calcul, calquée sur les neurones à impulsions, traite les signaux de manière rapide et ciblée, dans la veine des SNN.

Contrairement aux machines traditionnelles qui progressent séquentiellement, une architecture neuromorphique orchestre des calculs massivement parallèles. Les signaux circulent d’un neurone à l’autre à travers les synapses, chacune ajustant la force de sa connexion selon l’activité, un mécanisme qui rappelle la plasticité cérébrale. Cette adaptabilité autorise de nouveaux apprentissages tout en préservant une consommation d’énergie minimale : selon les tâches, elle peut chuter d’un facteur mille face à un microcontrôleur ou un FPGA.

L’exemple du Loihi 2 est éclairant : cette puce excelle dans la reconnaissance de motifs ou l’analyse sensorielle, et ce, à grande vitesse et sans interruption. Son fonctionnement asynchrone, sans horloge centrale, élimine les périodes d’inactivité entre mémoire et calcul, et réduit drastiquement le goulot d’étranglement propre aux architectures von Neumann. Ces avancées servent déjà le tinyML embarqué et le traitement local des données, là où chaque nanojoule compte.

Des applications prometteuses pour l’intelligence artificielle et l’industrie

Le marché de l’informatique neuromorphique attire désormais des géants industriels comme des équipes universitaires. Ces processeurs neuromorphiques fascinent par leur capacité à faire tourner des algorithmes de machine learning avec une sobriété énergétique inédite. En robotique, cette approche permet d’obtenir des machines réactives, autonomes, capables d’explorer ou de manipuler avec finesse, tout en limitant la chaleur dégagée et le volume du matériel.

Les véhicules autonomes tirent profit de ces architectures pour traiter d’immenses flux de signaux capteurs en temps réel. L’avantage ? Prendre des décisions sur-le-champ dans des environnements imprévisibles, sans dépendre de centres de données voraces en énergie. Côté santé, les systèmes neuromorphiques surveillent en continu des signaux biologiques et réalisent des analyses prédictives, là où rapidité et sobriété énergétique font la différence.

Voici quelques domaines où ces technologies s’imposent déjà :

  • Internet des objets (IoT) : des microcontrôleurs neuromorphiques relient capteurs et actionneurs, avec la capacité d’apprendre et d’agir localement.
  • Industrie manufacturière : anticipation des pannes, optimisation en temps réel des procédés, surveillance proactive des équipements.

Des groupes comme GE, Hitachi ou Airbus misent sur la rapidité et la stabilité de réseaux spécialisés, tandis que des instituts de recherche et universités, épaulés par le Human Brain Project, multiplient les essais à grande échelle. La dynamique en recherche et développement gagne en intensité, portée par des études prospectives d’Omdia et de Mordor Intelligence.

À peine sorties des laboratoires, les technologies neuromorphiques bousculent déjà nos repères : à chaque percée, l’informatique s’approche un peu plus de la logique du vivant. La suite ? Un terrain d’expérimentation immense, où la frontière entre intelligence artificielle et biologie s’efface peu à peu.