Outils pour utilisateurs

Outils du site


mpi:intel-mpi:start

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
mpi:intel-mpi:start [2017/07/05 17:21]
montap01 [Intel MPI]
mpi:intel-mpi:start [2022/09/14 18:25] (Version actuelle)
montap01 [Intel MPI]
Ligne 1: Ligne 1:
 ~~SLIDESHOW yatil~~ ~~SLIDESHOW yatil~~
 ====== Intel MPI ====== ====== Intel MPI ======
-<note warning>En cours de rédaction</note> +<note warning>En partie obsolète suite à la migration CALI2-B (2022)</note> 
-L'implémentation Intel MPI est la version MPI à utiliser préférentiellement sur CALI. La version utilisée par défaut est la version 5.0, qui implémente la norme MPI 3.0.+L'implémentation Intel MPI <del>est</del> était la version MPI à utiliser préférentiellement sur CALI. La version utilisée par défaut est la version 5.0, qui implémente la norme MPI 3.0.
  
 ===== Références ===== ===== Références =====
Ligne 10: Ligne 10:
  
 ===== Réseau Infiniband ===== ===== Réseau Infiniband =====
-Pour comprendre pourquoi il est préférable d'utiliser Intel MPI, il faut connaître [[:materiel-cali2#reseau_infiniband | le réseau Infiniband de notre cluster]]+Pour comprendre pourquoi il <del>est</del> était préférable d'utiliser Intel MPI, il faut connaître [[:materiel-cali2#reseau_infiniband | le réseau Infiniband de notre cluster]]
   * Les cartes de connexion au réseau Infiniband sont des //Host Channel Adapter// (HCA) ''QLogic IBA7322 QDR'' et le commutateur est un Intel True Scale 12300   * Les cartes de connexion au réseau Infiniband sont des //Host Channel Adapter// (HCA) ''QLogic IBA7322 QDR'' et le commutateur est un Intel True Scale 12300
   * Ce réseau est basé sur l'architecture [[http://www.intel.com/content/www/us/en/infiniband/truescale-infiniband.html | Intel True Scale]]   * Ce réseau est basé sur l'architecture [[http://www.intel.com/content/www/us/en/infiniband/truescale-infiniband.html | Intel True Scale]]
   * Pour obtenir la meilleure performance sur ce réseau, il faut utiliser la couche logicielle //Performance Scaled Messaging// (PSM)   * Pour obtenir la meilleure performance sur ce réseau, il faut utiliser la couche logicielle //Performance Scaled Messaging// (PSM)
   * La librairie Intel MPI est configurée pour utiliser PSM (voir article [[Fabric]])   * La librairie Intel MPI est configurée pour utiliser PSM (voir article [[Fabric]])
 +
 +<note warning>
 +Depuis la migration en version CALI2-B (2022), les cartes Infiniband sont mal supportées et le mode ''PSM'' optimisé n'est plus disponible 
 +</note>
  
 ==== Avantages de l'architecture True Scale ==== ==== Avantages de l'architecture True Scale ====
Ligne 27: Ligne 31:
 ===== Compiler ===== ===== Compiler =====
 Pour compiler votre programme MPI, il faut utiliser les commandes ''mpi//xxxx//'', où ''//xxxx//'' est le nom du "vrai" compilateur que vous désirez utiliser. Exemples : Pour compiler votre programme MPI, il faut utiliser les commandes ''mpi//xxxx//'', où ''//xxxx//'' est le nom du "vrai" compilateur que vous désirez utiliser. Exemples :
-  * ''mpiifort'' pour utiliser le compilateur Intel Fortran +  * ''mpiifort'' pour utiliser le compilateur Intel Fortran ''ifort'' 
-  * ''mpiicc'' pour utiliser le compilateur Intel C/C%%++%%+  * ''mpiicc'' pour utiliser le compilateur Intel C/C%%++%% ''icc''
   * ''mpigcc'' pour utiliser le compilateur GNU C   * ''mpigcc'' pour utiliser le compilateur GNU C
  
mpi/intel-mpi/start.1499268097.txt.gz · Dernière modification: 2017/07/05 17:21 de montap01