Ordinateurs neuromorphiques : qu'est-ce que c'est ?

Que sont les ordinateurs neuromorphiques ?
Que sont les ordinateurs neuromorphiques ?

Dans ce domaine émergent de l'informatique, les scientifiques modélisent le cerveau pour rendre les ordinateurs plus rapides et plus efficaces. Au cours des dernières décennies, nous avons assisté à une révolution technologique provoquée par la création de processeurs informatiques à base de silicium et d'autres matériaux semi-conducteurs.

Les ordinateurs avaient autrefois la taille de pièces entières, mais ont depuis été réduits à des puces uniques. La loi de Moore, un concept utilisé par Gordon Moore en 1965 pour décrire l'observation selon laquelle le nombre de composants par puce intégrée va doubler tous les deux ans, conduisant à des ordinateurs de plus en plus rapides, a été le moteur de cette tendance.

Mais à mesure que les demandes de calcul augmentent en raison des progrès des ordinateurs, des robots, de l'Internet des objets (IoT) et des machines intelligentes, l'industrie des semi-conducteurs a atteint un point où il n'est plus possible de miniaturiser davantage les puces informatiques. Il n'y a en fait qu'un nombre limité de transistors pouvant tenir sur une seule puce.

En conséquence, les informaticiens se tournent vers une toute nouvelle approche de l'informatique, connue sous le nom de "informatique neuromorphique", dans laquelle les ordinateurs sont conçus pour fonctionner de la même manière que le cerveau humain et interagir avec le monde extérieur.

Ce domaine d'étude gagne en popularité et est considéré comme l'étape fondamentale dans la création de matériel informatique et de systèmes d'intelligence artificielle. Nous couvrons tout ce que vous devez savoir sur ce domaine émergent et ce qu'il signifie pour l'avenir de l'informatique.

Comment le cerveau traite-t-il et stocke-t-il les informations ?

Avant de passer aux dispositifs neuromorphiques et à leurs applications, il convient de discuter du phénomène biologique qui motive ce domaine (la plasticité synaptique). C'est l'extraordinaire capacité du cerveau humain à changer et à s'adapter à de nouvelles informations. Afin d'évaluer correctement cela, nous devons d'abord discuter du fonctionnement de base de notre propre "centre informatique".

Les cellules messagères du cerveau sont appelées neurones. Ils sont tous interconnectés, grâce aux synapses, les sites de connexion qui les relient tous dans un vaste réseau à travers lequel les impulsions électroniques et les signaux chimiques sont transmis. Ils communiquent entre eux à l'aide de "pointes", qui sont de courtes rafales d'électricité d'une durée de quelques millisecondes.

La mémoire d'un ordinateur peut être augmentée simplement en ajoutant plus de cellules mémoire, mais dans le cerveau, les souvenirs sont produits en renforçant les connexions entre les neurones et en créant de nouvelles connexions. Lorsque deux neurones sont plus étroitement connectés l'un à l'autre, on peut dire que le poids synaptique de la synapse connectée augmente. Environ 10 dans notre cerveau12 Il y a des neurones et ils sont connectés les uns aux autres 10.15  Ils communiquent par synapses. Ces connexions et le degré de communication entre elles fluctuent avec le temps et la quantité de stimuli ou de pics reçus afin que le cerveau puisse s'adapter à l'environnement changeant, former et conserver des souvenirs.

Il est crucial de comprendre la potentialisation et la dépression, deux mécanismes clés de la plasticité synaptique, où les connexions synaptiques se renforcent ou s'affaiblissent progressivement et jouent un rôle important dans l'apprentissage et la mémoire. Ceci est possible dans n'importe quelle plage de temps allant de quelques secondes à des heures ou plus.

Des pointes de fréquence plus élevées, telles que celles qui se produisent lors de l'apprentissage d'une nouvelle compétence, sont supposées être liées au développement de la mémoire à long terme en renforçant ou en renforçant certaines synapses. D'autre part, des stimuli de fréquence inférieure provoquent une dépression et par conséquent un affaiblissement de la connexion (ou du poids synaptique) au niveau de la jonction synaptique concernée, ce qui revient à oublier quelque chose appris.

Il convient de souligner qu'il s'agit d'une simplification excessive et que l'autonomisation et la dépression dépendent non seulement de la fréquence des battements, mais aussi du moment. Par exemple, lorsque de nombreux neurones envoient des pics à une synapse en même temps, le poids synaptique augmente beaucoup plus rapidement qu'une succession d'impulsions.

Les chercheurs doivent sortir des sentiers battus pour imiter délibérément ce processus car il est si sophistiqué et complexe.

Comment fonctionne un ordinateur neuromorphique ?

L'architecture von Neumann utilisée pour construire les ordinateurs modernes est basée sur des idées développées pour la première fois par Alan Turing dans les années 1930. Cette configuration nécessite de séparer les unités de mémoire et de traitement des données, ce qui ralentit les performances car les données doivent être échangées entre elles et consomment inutilement plus d'énergie.

Les ordinateurs neuromorphiques, quant à eux, utilisent des architectures de puces qui combinent calcul et mémoire dans un seul composant. En termes de matériel, ce domaine se développe et comprend de nouvelles conceptions de pointe, divers matériaux et de nouvelles pièces informatiques.

Des chercheurs du monde entier travaillent à créer des réseaux synthétiques de neurones et de synapses qui imitent la flexibilité du cerveau, en utilisant à la fois des matériaux organiques et inorganiques. La plupart des ordinateurs neuromorphiques à grande échelle qui existent actuellement, tels que TrueNorth d'IBM, Loihi d'Intel et BrainScales-2, utilisent des transistors basés sur une technologie éprouvée de semi-conducteur à oxyde métallique.

Les ordinateurs Von Neumann utilisent souvent des transistors comme l'un des blocs de construction électroniques. Il existe des centaines de types de transistors différents, le transistor à effet de champ semi-conducteur à oxyde métallique ou MOSFET étant le plus populaire. Ils fonctionnent principalement comme un interrupteur (et dans une moindre mesure un amplificateur) pour les courants électriques dans une puce informatique.

Cela permet à chaque transistor d'être dans un état activé ou désactivé, ce qui équivaut à un 1 ou un 0 binaire, et empêche ou permet à un courant de circuler, lui permettant d'exister dans l'un ou l'autre état. Ce principe de fonctionnement facilite énormément le stockage et le traitement des informations, c'est pourquoi les cellules mémoires électroniques et les portes logiques sont devenues des composants essentiels de notre monde numérique.

Cependant, les signaux électriques dans notre cerveau ne sont pas que des 0 et des 1. Par exemple, une connexion entre des synapses peut avoir des "poids" ou des densités différents.

De nombreux outils ont été créés pour simuler cela sur un ordinateur neuromorphique. Une "couche active" qui module le signal entre les unités est incluse dans un type particulier de transistor à semi-conducteur connu sous le nom de transistor synaptique polymère. La conductivité, et donc la sortie du signal, est affectée par la composition spécifique du polymère conducteur utilisé pour former cette couche.

Lorsqu'une certaine fréquence de tension est appliquée à travers des transistors, la couche active change, provoquant des dépressions ou des amplifications du signal électrique comparables à des pics d'activité cérébrale. C'est essentiellement ainsi que la plasticité entre en jeu, et chaque pointe contient des données numériques sur la fréquence, le moment, la taille et la forme. Les pics peuvent être convertis en valeurs binaires et vice versa, mais le processus exact pour le faire est actuellement à l'étude.

Les chercheurs ont signalé des moyens de plus en plus créatifs d'imiter la structure du cerveau à l'aide de composants artificiels tels que des memristors, des condensateurs, des dispositifs spintroniques et même des tentatives intrigantes d'effectuer des calculs neuromorphiques à l'aide de champignons. Le matériel neuromorphique ne se limite pas non plus aux transistors.

Comment programmer un ordinateur neuromorphique ?

Les réseaux de neurones artificiels (ANN) sont fréquemment utilisés par les ordinateurs neuromorphiques pour effectuer des tâches de calcul. Les réseaux de neurones à pointes (SNN), l'une des nombreuses variantes des RNA, présentent un intérêt particulier car ils sont construits sur des neurones synthétiques qui interagissent les uns avec les autres en échangeant des signaux électriques appelés "pointes" et intègrent le temps dans leurs modèles. De ce fait, ces systèmes consomment moins d'énergie car les neurones artificiels ne diffusent des informations que lorsque le nombre total de pics qu'ils reçoivent dépasse un certain seuil.

Avant que le réseau puisse commencer à fonctionner, il doit être programmé, ou en d'autres termes, appris. Ceci est accompli en lui donnant des faits dont il peut tirer parti. La stratégie d'apprentissage peut varier selon le type de RNA. Par exemple, si le réseau est entraîné à reconnaître des chats ou des chiens sur des photographies, des milliers d'images peuvent être alimentées avec le tag "chat" ou "chien" pour entraîner le sujet à le reconnaître par lui-même lors de travaux futurs. Manipuler la couleur de chaque pixel de l'image nécessite des calculs extrêmement laborieux pour l'identification.

Il existe une grande variété d'ANN et celui à utiliser dépend des besoins de l'utilisateur. Bien que les SNN soient attrayants en raison de leur faible consommation d'énergie, ils sont généralement difficiles à former, principalement en raison de leur dynamique neuronale complexe et de la nature indiscernable des processus de pointe.

Où l'informatique neuromorphique est-elle utilisée ?

Selon les experts, les dispositifs neuromorphiques viendront compléter plutôt que remplacer le matériel informatique traditionnel, notamment lorsqu'il s'agit de résoudre certains problèmes technologiques. Bien qu'il y ait des affirmations selon lesquelles les ordinateurs neuromorphiques peuvent simuler la logique booléenne, une idée fondamentale dans tout langage de programmation moderne, cela suggère que les ordinateurs neuromorphiques peuvent potentiellement effectuer des calculs à usage général.

Dans tous les cas, les domaines et les applications où le cerveau est supérieur aux ordinateurs traditionnels en termes d'efficacité énergétique et de vitesse de calcul trouveront l'informatique neuromorphique très impressionnante.

Celles-ci incluent l'application de l'intelligence artificielle (IA) pour effectuer efficacement des tâches cognitives telles que l'identification de la voix ou de l'image, ainsi que l'ouverture de nouvelles possibilités pour la robotique, la détection et les soins de santé (pour n'en nommer que quelques-unes).

Bien que le sujet en soit encore à ses balbutiements et qu'il y ait des obstacles à surmonter, l'informatique neuromorphique devient de plus en plus populaire et offre une alternative viable aux systèmes informatiques traditionnels.

Source : nouvelles de la science avancée

📩 14/03/2023 15:25