Conférence
Notice
Langue :
Français
Crédits
Mahendra Paipuri (Intervention)
Conditions d'utilisation
Droit commun de la propriété intellectuelle
Citer cette ressource :
Mahendra Paipuri. JCAD. (2023, 4 octobre). Présentation des performances paralléles du code QDD CUDA Fortran sur différentes Architectures GPU , in JCAD 2023. [Vidéo]. Canal-U. https://www.canal-u.tv/148427. (Consultée le 22 janvier 2025)

Présentation des performances paralléles du code QDD CUDA Fortran sur différentes Architectures GPU

Réalisation : 4 octobre 2023 - Mise en ligne : 27 novembre 2023
  • document 1 document 2 document 3
  • niveau 1 niveau 2 niveau 3
Descriptif

QDD est l'acronyme de Quantum Dissipative Dynamics, un ensemble de théories développées pour prendre en compte les corrélations dynamiques incohérentes dans les clusters et les molécules. Les corrélations dynamiques dépassent la dynamique de champ moyen et deviennent prédominantes dans les situations très éloignées de l'équilibre, avec de fortes énergies d'excitation, et sont responsables des comportements dissipatifs. En raison de la nécessité d'une grande précision pour capturer les effets hautement non linéaires, la grille de simulation doit avoir une résolution élevée, ce qui rend le calcul de la dynamique coûteux en termes de temps.

Le rendement de cette nouvelle implémentation sur GPU a été testé et comparé à la parallélisation OpenMP sur de petits clusters de sodium et de petites molécules covalentes. La parallélisation OpenMP permet un gain de vitesse moyen d'un ordre de grandeur par rapport à un calcul séquentiel. L'utilisation d'un GPU permet un gain supplémentaire d'un autre ordre de grandeur. Une stratégie de minimisation des communications entre le CPU et le GPU, a été implémentée. Cette stratégie peut conduire à des choix de portage de routines du code sur GPU de manière contre-intuitive par rapport aux typologies algorithmiques sous-jaçentes. Cependant la rapport perte/gain sur la globalité de l'exécution du code s'avère largement en faveur du gain d'accélération. Afin de tester la robustesse de l'approche cette Stratégie a été testée sur différentes Architecture GPU, avec différents débits CPUGPU, et différentes Architecures CPU (x86 vs. ARM).

Ce travail de parallélisation sur GPU ouvre la voie à des applications qui étaient auparavant inaccessibles. Grâce à l'utilisation des capacités de calcul du GPU, une accélération significative a été obtenue, ouvrant de nouvelles opportunités pour des recherches futures dans ce domaine.

Intervention

Dans la même collection

Avec les mêmes intervenants et intervenantes