Ceci est une ancienne révision du document !
Cet article décrit la configuration matérielle du cluster CALI.
Le cluster est hétérogène :
Les matériels ajoutés par des laboratoires sont accessibles à tout le monde, mais le laboratoire propriétaire est prioritaire et les jobs en cours seront suspendus ou tués. L'hétérogénéité du cluster est gérée au niveau de l'ordonnanceur slurm via l'utilisation de partitions différentes.
Le nœud frontal sert de point d'accès au cluster, via des connexions SSH ou x2go
Matériel
Les nœuds de calcul sont les serveurs qui exécutent les jobs lorsque l'ordonnanceur (slurm) le décide.
Plusieurs ensemble de nœud de calcul différents cohabitent.
Série node[01,03-12,21-28]
:
Partitions associées : rapide
, normal
, cluster
, cluster-nopreempt
Un nœud node29
Partitions associées : gpu
Cette série de noeuds a été financé par le laboratoire INSERM UMR 850 de l'intitut GEIST et par XLIM.
Série node[46-54,56-57]
, node[59-62]
Partitions associées : cluster-e5v4
, cluster-e5v4-umr850
, cluster-e5v4-xlim-electro
node58
Puissance crête théorique des 4 cartes K40 : 17,16 TFlops
Partitions associées : gpu
, gpu-umr850
Un noeud : node65
– Financé par IRCER (UMR CNRS 7315)
Partitions associées : gpu
, gpu-ircer-gtx1080
Deux noeuds : node63
et node64
– Financés par l'UMR 1248 (ex-850) de l'intitut GEIST
/tmp/ssd
) + SATA 2 To
Partitions associées : gpu
, gpu-umr1248-gtx1080
Un noeud : node66
– Financé par XLIM
Partitions associées : xlim-cc
Le réseau interne Infiniband est un réseau avec une grande bande passante et une très faible latence. Il offre ainsi des communications très performantes pour les applications de calcul parallèle distribué (MPI) qui utilisent les ressources de plusieurs nœuds de calcul distincts.
Notre réseau est basé sur l'architecture Intel True Scale QDR (débit 40 Gb/s) – maintenant obsolète et non maintenue par le constructeur
Deux commutateurs Gb ethernet “empilés”