Résoudre des problèmes difficiles avec le calcul probabiliste

Résoudre des problèmes difficiles avec le calcul probabiliste
Résoudre des problèmes difficiles avec le calcul probabiliste

Selon le concept de complexité computationnelle, les problèmes mathématiques ont des degrés de difficulté variables selon la facilité avec laquelle ils peuvent être résolus. Alors qu'un ordinateur conventionnel peut résoudre certains problèmes (P) en temps polynomial - c'est-à-dire que le temps nécessaire pour résoudre P est une fonction polynomiale de la taille de l'entrée - il échoue souvent à résoudre les problèmes NP qui évoluent de manière exponentielle avec la taille du problème et ne peut donc pas être résolu en temps polynomial. Par conséquent, des problèmes NP suffisamment importants ne peuvent pas être résolus à l'aide d'ordinateurs conventionnels construits sur des dispositifs à semi-conducteurs.

En raison de leur capacité à effectuer un nombre important d'opérations simultanément, les ordinateurs quantiques sont considérés comme prometteurs à cet égard. En conséquence, la procédure de résolution du problème NP est accélérée. Cependant, de nombreuses applications physiques sont très sensibles aux changements de température.

De ce fait, l'utilisation des ordinateurs quantiques nécessite souvent des conditions expérimentales difficiles telles que des températures extrêmement basses, rendant leur fabrication difficile et augmentant leur coût.

Heureusement, une alternative moins connue et encore inconnue à l'informatique quantique est l'informatique probabiliste. Pour résoudre efficacement les problèmes NP, le calcul stochastique utilise des "nanodispositifs stochastiques" dont le fonctionnement dépend des fluctuations thermiques. Les fluctuations thermiques, contrairement aux ordinateurs quantiques, aident à résoudre les problèmes de calcul probabiliste. Par conséquent, le calcul probabiliste est plus pratique à utiliser dans des situations quotidiennes.

Les chercheurs ont prouvé la capacité du calcul probabiliste en simulant des réseaux de nano-dispositifs stochastiques pour résoudre des problèmes NP spécifiques, fournissant des informations indispensables sur cette alternative viable. La recherche, dirigée par le professeur Peter Bermel de l'Université Purdue, a été publiée dans le Journal of Photonics for Energy (JPE).

Le "modèle d'Ising", un modèle standard, a été utilisé par les chercheurs pour simuler une grande variété de sujets physiques et mathématiques. L'opérateur énergétique connu sous le nom de "Hamiltonien" peut également décrire des problèmes NP. L'hamiltonien a été développé à l'origine pour modéliser les interactions des moments dipolaires magnétiques des spins atomiques. Essentiellement, la résolution d'un problème NP nécessite la résolution de l'hamiltonien d'Ising associé.

Ces problèmes sont résolus à l'aide de dispositifs de calcul probabiliste constitués d'oscillateurs paramétriques optiques (OPO) et de réseaux de nanoaimants circulaires stochastiques à faibles barrières thermiques.

Les chercheurs ont activé un tel réseau de nano-aimants en utilisant des techniques de fabrication existantes. Ils ont ensuite appliqué cela pour résoudre les hamiltoniens d'Ising de quatre problèmes NP-complets de la théorie des nombres associés à l'optimisation combinatoire. Les problèmes NP-complets sont des problèmes qui n'ont pas d'algorithme de résolution efficace. Ceux-ci incluent la programmation linéaire entière, la programmation linéaire entière binaire, la couverture complète et le partitionnement des nombres.

La solution théorique du modèle d'Ising (loi de Boltzmann) et les résultats de simulation des trois premiers problèmes contenant 3, 3 et 6 bits probabilistes (p-bits) étaient en parfait accord. Des simulations de cinq problèmes de couverture complète différents avec 3, 6, 9, 12 et 15 p-bits ont révélé un accord similaire entre la modélisation et la théorie. Cela a montré que les cadres de calcul probabiliste pouvaient être mis à l'échelle.

Selon Bermel, "la clé pour faire du calcul probabiliste une alternative puissante et viable aux techniques informatiques traditionnelles est une mise à l'échelle efficace avec la taille des tâches. Des modèles et des expériences devront être utilisés pour déterminer quelles stratégies sont les plus efficaces.

Les chercheurs suggèrent que même si les résultats de simulation donnés montrent des résultats solides pour tous les p-bits (de 3 à 15), les algorithmes parallèles peuvent aider à augmenter encore la capacité de simulation. La transition des réseaux nano-aimants aux réseaux OPO peut permettre une résolution efficace des problèmes là où le parallélisme n'est pas possible. Le système peut être facilement mis en œuvre et cartographié sur un réseau OPO à l'aide de processus de fabrication existants tels que la technologie CMOS. En conséquence, des nanoaimants stochastiques avec des barrières à faible énergie pour le calcul probabiliste peuvent éventuellement être construits.

Selon Sean Shaheen, professeur à l'Université du Colorado à Boulder et rédacteur en chef de JPE, "Alors que l'intelligence artificielle et l'informatique scientifique/d'entreprise augmentent à un rythme qui soulève des préoccupations importantes, voire urgentes, concernant la consommation d'énergie et l'empreinte carbone, non -les formes traditionnelles de développement de matériel informatique deviennent de plus en plus importantes.

Ce travail de Zhu, Xi et Bermel offre une voie réaliste vers une technologie capable de gérer une classe importante de problèmes NP-complets. Le travail démontre une solution évolutive et économe en énergie qui a le potentiel de surpasser de manière significative le matériel conventionnel dans la gestion des tâches de calcul exigeantes en utilisant ingénieusement des réseaux non linéaires de dispositifs optiques pour piloter le calcul d'Ising.

Source : techxplore.com/news

 

Günceleme: 03/05/2023 14:19

Annonces similaires