Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
mpi:intel-mpi:start [2015/06/08 14:38] montap01 [Avec OpenMP] |
mpi:intel-mpi:start [2022/09/14 18:25] (Version actuelle) montap01 [Intel MPI] |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
~~SLIDESHOW yatil~~ | ~~SLIDESHOW yatil~~ | ||
====== Intel MPI ====== | ====== Intel MPI ====== | ||
- | <note warning> | + | <note warning> |
- | L' | + | L' |
+ | |||
+ | ===== Références ===== | ||
+ | Concernant la librairie Intel MPI : | ||
+ | * La documentation de référence est disponible chez Intel : https:// | ||
+ | * Vous pouvez aussi la consulter sur CALI : http:// | ||
===== Réseau Infiniband ===== | ===== Réseau Infiniband ===== | ||
- | Pour comprendre pourquoi il est préférable d' | + | Pour comprendre pourquoi il <del>est</ |
* Les cartes de connexion au réseau Infiniband sont des //Host Channel Adapter// (HCA) '' | * Les cartes de connexion au réseau Infiniband sont des //Host Channel Adapter// (HCA) '' | ||
* Ce réseau est basé sur l' | * Ce réseau est basé sur l' | ||
* Pour obtenir la meilleure performance sur ce réseau, il faut utiliser la couche logicielle // | * Pour obtenir la meilleure performance sur ce réseau, il faut utiliser la couche logicielle // | ||
- | * La librairie Intel MPI est configurée pour utiliser PSM | + | * La librairie Intel MPI est configurée pour utiliser PSM (voir article [[Fabric]]) |
+ | |||
+ | <note warning> | ||
+ | Depuis la migration en version CALI2-B (2022), les cartes Infiniband sont mal supportées et le mode '' | ||
+ | </ | ||
==== Avantages de l' | ==== Avantages de l' | ||
* Fonctionne en mode non connecté, assurant ainsi une plus faible latence | * Fonctionne en mode non connecté, assurant ainsi une plus faible latence | ||
* Optimisation grâce à PSM, plus performant que la librairie //verbs// traditionnelle utilisée précédemment en Infiniband | * Optimisation grâce à PSM, plus performant que la librairie //verbs// traditionnelle utilisée précédemment en Infiniband | ||
- | ===== Références ===== | + | ===== Configurer votre environnement===== |
- | Concernant la librairie Intel MPI : | + | |
- | * La documentation de référence est disponible chez Intel : https:// | + | |
- | * Vous pouvez aussi la consulter sur CALI : http:// | + | |
- | + | ||
- | ===== Environnement pour MPI ===== | + | |
* L' | * L' | ||
* Vous ne devez donc pas suivre la documentation d' | * Vous ne devez donc pas suivre la documentation d' | ||
Ligne 27: | Ligne 31: | ||
===== Compiler ===== | ===== Compiler ===== | ||
Pour compiler votre programme MPI, il faut utiliser les commandes '' | Pour compiler votre programme MPI, il faut utiliser les commandes '' | ||
- | * '' | + | * '' |
- | * '' | + | * '' |
* '' | * '' | ||
Ligne 40: | Ligne 44: | ||
===== Exécuter ===== | ===== Exécuter ===== | ||
+ | * Sur notre cluster, l' | ||
+ | * Au sein d'un fichier batch, la commande trouvera automatiquement le nombre adéquat de processus à lancer, en fonction des ressources demandées | ||
+ | * L' | ||
+ | ==== Fichier batch ==== | ||
+ | Un exemple de fichier batch est disponible sur [[: | ||
+ | ===== Plus de détails ===== | ||
- | ===== TODO ===== | + | * L' |
- | FIXME | + | |
- | + | ||
- | Thread safe version de la lib MPI : -mt_mpi . A utiliser avec la MKL par exemple => à vérifier | + | |
- | + | ||
- | //Fabric// utilisées : | + | |
- | $ echo $I_MPI_FABRICS | + | |
- | shm:tmi | + | |
- | PSM est un TMI Provider. Sélectionné via la configuration du fichier ''/ | ||
- | * Pourquoi ne pas utiliser DAPL ? | ||
- | * Est-ce que le RDMA fonctionne ? |