Démêler la dynamique de notre cerveau révèle des modèles d'apprentissage automatique flexibles

La résolution de la dynamique de notre cerveau révèle des modèles d'apprentissage automatique flexibles
La résolution de la dynamique de notre cerveau révèle des modèles d'apprentissage automatique flexibles

Un réseau neuronal "liquide" inspiré du cerveau de minuscules créatures a été dévoilé par des chercheurs du MIT l'année dernière. Pour les tâches pratiques et critiques pour la sécurité comme la conduite et le vol, nous parlons d'une classe de modèles d'apprentissage automatique robustes et adaptatifs qui peuvent apprendre sur le tas et s'adapter aux conditions changeantes. L'adaptabilité de ces réseaux de neurones « liquides » renforce la communication de notre monde interconnecté, ce qui signifie une meilleure prise de décision pour une variété de tâches gourmandes en données de séries chronologiques telles que la surveillance du cœur et du cerveau, les prévisions météorologiques et le cours des actions.

Cependant, à mesure que le nombre de neurones et de synapses dans ces modèles augmente, ils deviennent coûteux en termes de calcul et nécessitent des programmes informatiques encombrants pour résoudre les mathématiques complexes à leur base. Et tout comme pour de nombreux phénomènes physiques, résoudre toute cette arithmétique devient plus difficile avec la taille, ce qui nécessite de calculer de nombreuses petites étapes pour arriver à une solution.

La même équipe de scientifiques a trouvé un moyen de réduire ce goulot d'étranglement en résolvant l'équation différentielle sous-jacente à la connexion de deux neurones via des synapses pour révéler une nouvelle classe de systèmes d'IA rapides et efficaces. Bien que ces modes soient beaucoup plus rapides et évolutifs que les réseaux de neurones liquides, ils partagent les mêmes caractéristiques flexibles, causales, robustes et explicables.

En conséquence, parce qu'ils sont petits et flexibles même après la formation - contrairement à de nombreux modèles traditionnels qui sont fixes - ce type de réseau de neurones peut être utilisé pour toute tâche qui implique d'obtenir des informations sur les données au fil du temps.

Les modèles de réseaux de neurones à temps continu sous forme fermée (CfC) ont surpassé leurs homologues de pointe dans une variété de tâches, notamment le traitement d'images séquentiel basé sur des événements, la modélisation de la dynamique physique d'un robot marcheur simulé et la reconnaissance de l'activité humaine à partir de capteurs de mouvement. Par exemple, les nouveaux modèles étaient 8.000 fois plus rapides sur un échantillon de 220 XNUMX patients pour une tâche de prédiction médicale.

Selon la professeure du MIT Daniela Rus, directrice du Laboratoire d'informatique et d'intelligence artificielle (CSAIL) et auteure principale du nouvel article, "Les nouveaux modèles d'apprentissage automatique, que nous appelons" CfC ", sont axés sur l'intégration numérique, remplaçant l'équation différentielle qui décrit le calcul du neurone avec une approche de forme fermée. conserve les belles propriétés des maillages liquides sans avoir besoin de « Les modèles CfC sont efficaces, causals, condensés et explicables pour former et prédire. Ils ouvrent la porte à un apprentissage automatique fiable pour les applications essentielles à la sécurité.

Nous pouvons calculer l'évolution de l'état du monde ou d'un phénomène dans le temps à l'aide d'équations différentielles, mais nous ne pouvons le faire qu'étape par étape dans le temps. L'équipe a fouillé dans ses sacs d'astuces mathématiques pour trouver la solution parfaite.

Une solution « forme fermée » qui modélise la description complète d'un système entier en une seule étape de calcul pour modéliser les phénomènes naturels dans le temps et comprendre les comportements passés et présents, comme la reconnaissance des activités humaines ou le chemin suivi par un robot.

Leur modèle permet de calculer cette équation à tout moment dans le passé ou dans le futur. De plus, le calcul est beaucoup plus rapide puisque l'équation différentielle n'a pas besoin d'être résolue étape par étape.

Imaginez un réseau neuronal de bout en bout qui utilise une caméra intégrée à une voiture pour fournir des informations sur la conduite. Le réseau est formé pour produire des sorties telles que l'angle de braquage de la voiture. En 2020, l'équipe a réussi à créer une voiture pouvant être entraînée par 19 neurones et un petit module de détection utilisant des réseaux de neurones fluides à 19 nœuds. Chaque nœud du système est décrit par une équation différentielle. Étant donné que la solution de forme fermée est une bonne approximation de la dynamique réelle du système, la modifier dans ce maillage entraînera exactement le comportement que vous recherchez. En conséquence, ils peuvent résoudre le problème avec encore moins de neurones, ce qui rend le processus plus rapide et moins coûteux en calculs.

Source et lectures complémentaires : techxplore.com/news/2022-11-brain-dynamics-flexible-machine-learning.html

Günceleme: 21/11/2022 14:03

Annonces similaires

Soyez le premier à commenter

votre commentaire