En 2019, le projet Loihi d’Intel a permis de réaliser plus de 1 000 fois l’efficacité énergétique d’une puce classique sur certaines tâches d’intelligence artificielle. Cette architecture ne repose ni sur des processeurs traditionnels ni sur des réseaux neuronaux purement logiciels.
Aucune compatibilité native n’existe entre ces circuits spécialisés et les standards matériels informatiques actuels. Pourtant, leur conception s’inspire directement du fonctionnement biologique du cerveau, ouvrant la voie à de nouveaux paradigmes en calcul et en apprentissage automatique.
Comprendre l’informatique neuromorphique : origines, principes et enjeux
L’informatique neuromorphique trouve ses racines dans les années 1980, portée par la vision avant-gardiste de Carver Mead. Ce chercheur californien a osé poser une question radicale : pourquoi ne pas créer des circuits capables de reproduire la dynamique extraordinaire du cerveau humain ? À partir de là, la discipline s’est structurée autour d’un défi : dépasser les limites de l’architecture von Neumann, ce schéma classique qui sépare la mémoire du calcul et finit par créer le fameux goulot d’étranglement.
Le cerveau, lui, ne s’embarrasse pas de cette division. Ses 86 milliards de neurones et ses centaines de billions de synapses gèrent l’information sous forme d’impulsions électriques (spikes). Cette organisation inspire les spiking neural networks (SNN), ou réseaux de neurones à pointes, qui transmettent l’information via des événements discrets, à l’opposé des réseaux neuronaux conventionnels. Les neurones artificiels des puces neuromorphiques suivent le même principe : ils ne s’activent que lorsqu’un seuil précis est franchi, ce qui allège fortement la consommation d’énergie.
Des initiatives comme le Human Brain Project, pilotées entre Grenoble et Zurich, cherchent à modéliser ces réseaux d’une grande complexité et à optimiser leur reproduction sur silicium. Des acteurs majeurs, de IBM à Intel, multiplient les prototypes intégrant des millions de neurones artificiels et des centaines de millions de synapses sur une seule puce. Les analyses de Gartner qualifient ce secteur d’étape stratégique pour l’apprentissage automatique, capable de répondre à l’explosion des besoins énergétiques des data centers.
Comment fonctionne un dispositif neuromorphique ? Exemple concret à la loupe
Un dispositif neuromorphique s’appuie sur le modèle du cerveau pour aborder les calculs autrement qu’un CPU ou GPU traditionnel. Prenons la puce Loihi 2 conçue par Intel. Ce véritable laboratoire sur silicium rassemble plus d’un million de neurones artificiels et 120 millions de synapses, organisés pour apprendre et s’ajuster à leur environnement, en temps réel. Chaque unité de calcul, inspirée des neurones impulsions, traite les signaux de façon brève et ciblée, tout comme les SNN.
À la différence des machines classiques, qui avancent pas à pas, une architecture neuromorphique orchestre des calculs massivement parallèles. Les signaux circulent d’un neurone à l’autre par le biais des synapses, chacune adaptant sa force de connexion en fonction de l’activité, à la manière du cerveau. Cette adaptabilité, ou plasticité synaptique, permet au système d’intégrer de nouveaux apprentissages tout en maintenant une consommation d’énergie extrêmement basse : sur certaines tâches, elle peut être divisée par 1000 par rapport à un microcontrôleur ou un FPGA.
L’exemple du Loihi 2 parle de lui-même : cette puce traite la reconnaissance de motifs ou l’analyse sensorielle à grande vitesse, sans interruption. Grâce à son fonctionnement asynchrone, aucune horloge centrale,, elle supprime les temps morts entre mémoire et calcul, ce qui réduit le goulot d’étranglement propre aux architectures von Neumann. Les chercheurs tirent parti de ces qualités pour le tinyML embarqué et le traitement local des données, dans des contextes où chaque nanojoule économisé compte.
Des applications prometteuses pour l’intelligence artificielle et l’industrie
Le marché de l’informatique neuromorphique attire désormais une pluralité d’acteurs, des industriels majeurs aux équipes universitaires. Ces processeurs neuromorphiques séduisent par leur capacité à exécuter des algorithmes de machine learning avec une sobriété énergétique impressionnante. En robotique, cette technologie offre une réactivité et une autonomie inédites pour l’exploration et la manipulation fine, tout en limitant le dégagement de chaleur et l’encombrement.
Les véhicules autonomes profitent de ces architectures pour traiter une masse de signaux capteurs en temps réel. Leur force : prendre des décisions instantanées dans des environnements complexes, sans dépendre de datacenters aux besoins énergétiques exorbitants. Dans le secteur des soins de santé, les dispositifs neuromorphiques trouvent leur place pour le suivi continu de signaux biologiques et l’analyse prédictive, où rapidité et faible consommation font la différence.
Voici quelques domaines d’application concrets où ces systèmes font déjà la différence :
- Internet des objets (IoT) : des microcontrôleurs neuromorphiques s’installent à la jonction entre capteurs et actionneurs, capables d’apprendre et de réagir localement.
- Industrie manufacturière : diagnostic anticipé, optimisation dynamique des processus, surveillance proactive des équipements.
Des groupes comme GE, Hitachi ou Airbus misent sur la fiabilité et la rapidité de réseaux de neurones spécialisés, pendant que des instituts de recherche et universités, soutenus par le Human Brain Project, multiplient les expérimentations à grande échelle. L’effervescence en recherche et développement s’intensifie, rythmée par des projections de marché dynamiques, relayées dans les études d’Omdia ou de Mordor Intelligence.
Les dispositifs neuromorphiques n’en sont qu’à leurs débuts, mais le terrain est prêt : à chaque avancée, l’informatique s’approche un peu plus du vivant. Demain, qui sait quels nouveaux horizons seront franchis ?