Outils pour utilisateurs

Outils du site


mpi:openmpi:start

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
mpi:openmpi:start [2018/02/16 19:43]
montap01
mpi:openmpi:start [2018/04/10 17:09] (Version actuelle)
montap01 [Compiler avec GCC + OpenMPI]
Ligne 7: Ligne 7:
  
 <note warning> <note warning>
-La version OpenMPI disponible est relativement ancienne (1.8.2), datant de l'installation du cluster...+Les versions OpenMPI disponibles :  
 +  * 1.8.2 : version d'origine datant de l'installation du cluster 
 +  * 1.10.7
 </note> </note>
  
Ligne 38: Ligne 40:
  
 ===== Compiler avec GCC + OpenMPI ===== ===== Compiler avec GCC + OpenMPI =====
-Il faut d'abord décharger les modules Intel, charger l'implémentation OpenMPI :+Il faut d'abord décharger les modules Intel, charger l'implémentation OpenMPI en choisissant la version souhaitée :
   module unload configuration   module unload configuration
   module load mpi/openmpi/1.8.2-gcc64   module load mpi/openmpi/1.8.2-gcc64
Ligne 51: Ligne 53:
  
 ===== Exécuter ===== ===== Exécuter =====
-  * Sur notre cluster, l'exécution du code MPI est prise en charge par la commande ''srun'' +
-  * Au sein d'un fichier batch, la commande trouvera automatiquement le nombre adéquat de processus à lancer, en fonction des ressources demandées+
  
 ==== Fichier batch ==== ==== Fichier batch ====
-Un exemple de fichier batch est disponible sur [[:slurm:slurm-openmpi]] FIXME+<file bash> 
 +#!/bin/bash 
 +
 +#SBATCH --ntasks=4 
 +#SBATCH --time 00:01:00 
 +#SBATCH --mem-per-cpu=9000 
 +#SBATCH --partition=normal 
 + 
 +module unload configuration 
 +module load mpi/openmpi/1.8.2-gcc64 
 + 
 +mpirun  ./hello_mpi 
 + 
 +</file>
  
 +==== Alternative ====
 +Pour un job distribué, on peut aussi utiliser ''srun''. Ne fonctionne pas si 2 processus sont sur le même noeud physique (pb inititialisation communication par SHM) 
 +<file>
 +eval export `mpirun env | grep OMPI_MCA_orte_precondition_transports`
 +srun ./hello_mpi
 +</file>
mpi/openmpi/start.1518806594.txt.gz · Dernière modification: 2018/02/16 19:43 de montap01