Outils pour utilisateurs

Outils du site


mpi:openmpi:start

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
mpi:openmpi:start [2018/02/16 20:04]
montap01 [Fichier batch]
mpi:openmpi:start [2018/04/10 17:09] (Version actuelle)
montap01 [Compiler avec GCC + OpenMPI]
Ligne 7: Ligne 7:
  
 <note warning> <note warning>
-La version OpenMPI disponible est relativement ancienne (1.8.2), datant de l'installation du cluster...+Les versions OpenMPI disponibles :  
 +  * 1.8.2 : version d'origine datant de l'installation du cluster 
 +  * 1.10.7
 </note> </note>
  
Ligne 38: Ligne 40:
  
 ===== Compiler avec GCC + OpenMPI ===== ===== Compiler avec GCC + OpenMPI =====
-Il faut d'abord décharger les modules Intel, charger l'implémentation OpenMPI :+Il faut d'abord décharger les modules Intel, charger l'implémentation OpenMPI en choisissant la version souhaitée :
   module unload configuration   module unload configuration
   module load mpi/openmpi/1.8.2-gcc64   module load mpi/openmpi/1.8.2-gcc64
Ligne 51: Ligne 53:
  
 ===== Exécuter ===== ===== Exécuter =====
-  * Sur notre cluster, l'exécution du code MPI est prise en charge par la commande ''srun'' +
-  * Au sein d'un fichier batch, la commande trouvera automatiquement le nombre adéquat de processus à lancer, en fonction des ressources demandées+
  
 ==== Fichier batch ==== ==== Fichier batch ====
Ligne 60: Ligne 61:
 #SBATCH --ntasks=4 #SBATCH --ntasks=4
 #SBATCH --time 00:01:00 #SBATCH --time 00:01:00
-#SBATCH --cpus-per-task=2 +#SBATCH --mem-per-cpu=9000 
-#SBATCH --partition=rapide +#SBATCH --partition=normal
- +
-# Magie ... : +
-eval "export `mpirun env | grep OMPI_MCA_orte_precondition_transports`"+
  
 module unload configuration module unload configuration
 module load mpi/openmpi/1.8.2-gcc64 module load mpi/openmpi/1.8.2-gcc64
  
-srun  ./hello_mpi+mpirun  ./hello_mpi 
 + 
 +</file>
  
 +==== Alternative ====
 +Pour un job distribué, on peut aussi utiliser ''srun''. Ne fonctionne pas si 2 processus sont sur le même noeud physique (pb inititialisation communication par SHM) 
 +<file>
 +eval export `mpirun env | grep OMPI_MCA_orte_precondition_transports`
 +srun ./hello_mpi
 </file> </file>
mpi/openmpi/start.1518807860.txt.gz · Dernière modification: 2018/02/16 20:04 de montap01