Outils pour utilisateurs

Outils du site


mpi:intel-mpi:start

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
mpi:intel-mpi:start [2022/09/14 18:24]
montap01 [Intel MPI]
mpi:intel-mpi:start [2022/09/14 18:25] (Version actuelle)
montap01 [Intel MPI]
Ligne 1: Ligne 1:
 ~~SLIDESHOW yatil~~ ~~SLIDESHOW yatil~~
 ====== Intel MPI ====== ====== Intel MPI ======
-<note warning>En cours de rédaction</note>+<note warning>En partie obsolète suite à la migration CALI2-B (2022)</note>
 L'implémentation Intel MPI <del>est</del> était la version MPI à utiliser préférentiellement sur CALI. La version utilisée par défaut est la version 5.0, qui implémente la norme MPI 3.0. L'implémentation Intel MPI <del>est</del> était la version MPI à utiliser préférentiellement sur CALI. La version utilisée par défaut est la version 5.0, qui implémente la norme MPI 3.0.
  
Ligne 10: Ligne 10:
  
 ===== Réseau Infiniband ===== ===== Réseau Infiniband =====
-Pour comprendre pourquoi il est préférable d'utiliser Intel MPI, il faut connaître [[:materiel-cali2#reseau_infiniband | le réseau Infiniband de notre cluster]]+Pour comprendre pourquoi il <del>est</del> était préférable d'utiliser Intel MPI, il faut connaître [[:materiel-cali2#reseau_infiniband | le réseau Infiniband de notre cluster]]
   * Les cartes de connexion au réseau Infiniband sont des //Host Channel Adapter// (HCA) ''QLogic IBA7322 QDR'' et le commutateur est un Intel True Scale 12300   * Les cartes de connexion au réseau Infiniband sont des //Host Channel Adapter// (HCA) ''QLogic IBA7322 QDR'' et le commutateur est un Intel True Scale 12300
   * Ce réseau est basé sur l'architecture [[http://www.intel.com/content/www/us/en/infiniband/truescale-infiniband.html | Intel True Scale]]   * Ce réseau est basé sur l'architecture [[http://www.intel.com/content/www/us/en/infiniband/truescale-infiniband.html | Intel True Scale]]
   * Pour obtenir la meilleure performance sur ce réseau, il faut utiliser la couche logicielle //Performance Scaled Messaging// (PSM)   * Pour obtenir la meilleure performance sur ce réseau, il faut utiliser la couche logicielle //Performance Scaled Messaging// (PSM)
   * La librairie Intel MPI est configurée pour utiliser PSM (voir article [[Fabric]])   * La librairie Intel MPI est configurée pour utiliser PSM (voir article [[Fabric]])
 +
 +<note warning>
 +Depuis la migration en version CALI2-B (2022), les cartes Infiniband sont mal supportées et le mode ''PSM'' optimisé n'est plus disponible 
 +</note>
  
 ==== Avantages de l'architecture True Scale ==== ==== Avantages de l'architecture True Scale ====
mpi/intel-mpi/start.1663172651.txt.gz · Dernière modification: 2022/09/14 18:24 de montap01