Ceci est une ancienne révision du document !
ssh <login>@slethe.cbp.ens-lyon.fr
qhost
qstat
qconf -sql
MyJob.qsub
: qsub MyJob.qsub
Le Centre Blaise Pascal dispose de plateaux techniques, notamment des noeuds de clusters, destinés :
Le Centre Blaise Pascal n'a pas vocation à voir ses infrastructures utilisées :
Pour ces deux exigences, le PSMN dispose d'une infrastructure de production.
Les équipements mis à disposition 76 noeuds dans 3 groupes différents pour un total de 624 coeurs et 1856 Go de RAM.
Les noeuds v40z et v20z ont été arrêtés puis déposés suite à l'arrivée de Equip@Meso : ils ont été remplacés par quelques x41z supplémentaires durant l'été 2013. Les noeuds R410 sont arrivés au printemps, remplaçant les v20z version 2. Les noeuds C6100 sont ds équipements de prêt connectés un chassis hôte de GPGPU C410X.
Cluster | Marque | Modèle | Noeuds | Coeurs /Noeud | RAM /Noeud | Réseau GE | Réseau IB | Total Coeurs | Total RAM |
r410 | Dell | R410 | 48 | 8 | 24Go | GE | IB | 384 | 1.1 To |
x41z | Sunfire | x41z | 24 | 8 | 16Go ou 32Go | GE | IB | 192 | 512 Go |
c6100 | Dell | C6100 | 4 | 12 | 48Go | GE | IB | 48 | 192 Go |
Ces clusters partagent exactement la même image de système, Sidus (pour Single Instance Distributing Universal System), un système complet Debian intégrant tous les paquets scientifiques ainsi que de nombreux paquets de développement.
L'accès aux clusters se fait via la passerelle lethe.cbp.ens-lyon.fr
, par le protocole SSH :
ssh -X <login>@lethe.cbp.ens-lyon.fr
qhost
et ses optionsqstat
et ses optionsqsub
et ses options
La commande qhost
permet de connaître l'état des noeuds gérés par le gestionnaire de tâches. Chaque ressource représente un coeur. Il existe donc plus entrées par noeud.
La commande fournit en sortie :
HOSTNAME ARCH NCPU LOAD MEMTOT MEMUSE SWAPTO SWAPUS ------------------------------------------------------------------------------- global - - - - - - - c6100gpu-1.cluster.zone lx26-amd64 24 - 47.3G - 0.0 - ... <snip><snip> c6100gpu-4.cluster.zone lx26-amd64 24 - 47.3G - 0.0 - lethe.cluster.zone lx26-amd64 4 0.31 15.7G 3.0G 17.2G 2.9M r410node1.cluster.zone lx26-amd64 16 - 23.6G - 0.0 - ... <snip><snip> r410node9.cluster.zone lx26-amd64 16 0.01 23.6G 303.9M 0.0 0.0 x41z1.cluster.zone lx26-amd64 8 - 31.5G - 0.0 - ... <snip><snip> x41z9.cluster.zone lx26-amd64 8 2.16 13.7G 286.5M 0.0 0.0
Par exemple, la commande qhost x41z7.cluster.zone
pour examiner les ressources offertes par le noeud x41z7 sort :
HOSTNAME ARCH NCPU LOAD MEMTOT MEMUSE SWAPTO SWAPUS ------------------------------------------------------------------------------- global - - - - - - - x41z7.cluster.zone lx26-amd64 8 0.05 31.5G 342.7M 0.0 0.0
Donc, le noeud x41z7 offre 8 CPU et une mémoire vive de 31.5 Go.
Pour lister toutes les grappes de calcul, on applique la commande qconf -shgrpl
:
@c6100 @r410 @x41z
Pour lister les noeuds de la grappe x41z, on applique la commande qconf -shgrp @x41z
:
group_name @x41z hostlist x41z1.cluster.zone x41z10.cluster.zone x41z11.cluster.zone \ x41z12.cluster.zone x41z13.cluster.zone x41z14.cluster.zone \ x41z15.cluster.zone x41z16.cluster.zone x41z2.cluster.zone \ x41z3.cluster.zone x41z4.cluster.zone x41z5.cluster.zone \ x41z6.cluster.zone x41z7.cluster.zone x41z8.cluster.zone \ x41z9.cluster.zone
Pour lister toutes les queues, on applique la commande qconf -sql
:
c6100 r410 x41z
Pour lister toutes les queues, on applique la commande qconf -sq x41z
:
qname x41z hostlist @x41z seq_no 0 load_thresholds np_load_avg=1.75 suspend_thresholds NONE nsuspend 1 suspend_interval 00:05:00 priority 0 min_cpu_interval 00:05:00 processors UNDEFINED qtype BATCH INTERACTIVE ckpt_list NONE pe_list sequential x41zhybrid rerun FALSE slots 8 tmpdir /tmp shell /bin/bash prolog NONE epilog NONE shell_start_mode posix_compliant starter_method NONE suspend_method NONE resume_method NONE terminate_method NONE notify 00:00:60 owner_list NONE user_lists NONE xuser_lists NONE subordinate_list NONE complex_values NONE projects NONE xprojects NONE calendar NONE initial_state default s_rt INFINITY h_rt INFINITY s_cpu INFINITY h_cpu INFINITY s_fsize INFINITY h_fsize INFINITY s_data INFINITY h_data INFINITY s_stack INFINITY h_stack INFINITY s_core INFINITY h_core INFINITY s_rss INFINITY h_rss INFINITY s_vmem INFINITY h_vmem INFINITY
Pour lister toutes les queues, on applique la commande qconf -spl
:
r410hybrid sequential x41zhybrid
Pour lister toutes les queues, on applique la commande qconf -sp x41zhybrid
:
pe_name x41zhybrid slots 128 user_lists NONE xuser_lists NONE start_proc_args /bin/true stop_proc_args /bin/true allocation_rule 8 control_slaves TRUE job_is_first_task TRUE urgency_slots min accounting_summary TRUE
qstat
Pour connaître toutes les informations sur la tâche 9, par exemple, qstat -j 9
On voit ainsi que la tâche a commencé le 5 février 2013 à 15h51 pour se terminer à 15h58 et qu'elle s'est exécutée sur 4 noeuds x41z.
Il est possible de lancer un batch en précisant les paramètres (queue, environnement parallèle, etc) mais il est nécessaire de toutes façons de créer un script shell.
Autant créer un script de lancement GridEngine lequel sera utilisé pour déclarer tout d'un bloc.
Le propre d'un programme séquentiel est qu'il ne peut pas se distribuer sur plusieurs noeuds.
Nous voulons exécuter le programme MPI MyJob
sur 1 seul coeur, sur la queue des x41z.
Nous voulons que le nom de fichiers de de sortie soit préfixés de MyJob
.
Le lancement de batch se fait par :
qsub MyJob.qsub
Le script de batch MyJob.qsub
est le suivant :
# Nom du programme pour les sorties (sortie standard et sortie erreur Posix) #$ -N MyJob # Nom de la queue (ici, la queue des x41z) #$ -q x41z # Messages a expedier : il est expedie lorsqu'il demarre, termine ou avorte #$ -m bea # specify your email address #$ -M <prenom>.<nom>@ens-lyon.fr #$ -cwd #$ -V # Lancement du programme /usr/bin/time ./MyJob exit 0
Nous voulons exécuter le programme MPI MyJob
sur 32 coeurs sur la queue des x41z.
Nous voulons que le nom de fichiers de de sortie soit préfixés de MyJob
.
Nous créons le script suivant sous le nom (très original) de MyJob.qsub
:
# Nom du programme pour les sorties (sortie standard et sortie erreur Posix) #$ -N MyJob # Nom de la queue (ici, la queue des x41z) #$ -q x41z # Nom de la queue d'environnement parallèle et de requête de ressources : x41zhybrid avec 32 ressources #$ -pe x41zhybrid 32 # Messages a expedier : il est expedie lorsqu'il demarre, termine ou avorte #$ -m bea # Adresse electronique d'expedition #$ -M <prenom>.<nom>@ens-lyon.fr #$ -cwd #$ -V /usr/bin/time mpirun.openmpi -np 32 -mca btl self,openib,sm ./MyJob exit 0
Le programme se lance en utilisant la commande de soumission qsub ./MyJob.qsub
.
La commande d'examen des tâches en cours qstat
permet ensuite de savoir que le job a bien été pris en compte.