Ceci est une ancienne révision du document !
Intel MPI et Fabric
Cet article traite du choix de la Fabric par la librairie Intel MPI.
Une Fabric ?
Infiniband : PSM vs. Verbs
Verbs
date des origines d'IB
interface entre les protocoles de haut niveau et le HCA (Host Controler, carte IB)
orienté connexion ⇒ lourd
conséquence, a besoin de HCA avec capacité d'offload
conçu pour des I/O à la base
MPI a été ensuite adapté pour utiliser Verbs directement … mais ce n'est pas très adapté
Schéma Verbs
PSM
Performance Scaled Messaging
postérieur à Verbs
écrit pour MPI (et donc très bien adapté)
réside en user space sous forme d'une librairie
beaucoup plus léger que Verbs
utilise un découpage des rôles différents de Verbs : la partie “transport” est exécutée par le driver, et non par le HCA. Il n'utilise pas de technologie d'offload
Schéma PSM
Fabric supportées
shm | Mémoire partagée |
dapl | DAPL-capable network fabrics, such as InfiniBand, iWarp, Dolphin, and XPMEM (through DAPL) |
tcp | TCP/IP-capable network fabrics, such as Ethernet and InfiniBand (through IPoIB) |
tmi | TMI-capable network fabrics including Intel True Scale Fabric, Myrinet, (through Tag Matching Interface) |
ofa | OFA-capable network fabric including InfiniBand* (through OFED verbs) |
shm
Ce type de Fabric concerne seulement les machines à mémoires partagées, comme son nom l'indique
Utilisable pour des communication au sein d'un nœud de calcul
tcp
Utilise le protocole réseau TCP, développé à l'origine pour TCP/IP
Lent …
Peut fonctionner
A réserver aux anciens nœuds de calcul sans connexion IB
dapl
ofa / verbs
Fabric utilisées :
$ echo $I_MPI_FABRICS
shm:tmi
PSM est un TMI Provider. Sélectionné via la configuration du fichier /opt/software/intel/impi_latest/etc64/tmi.conf