Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente Prochaine révision Les deux révisions suivantes | ||
ressources:slurm4cbp [2022/05/31 15:16] equemene [Ressources du Centre Blaise Pascal] |
ressources:slurm4cbp [2022/06/17 14:16] equemene [Ressources du Centre Blaise Pascal] |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
- | ====== Utilisation de Slurm au Centre Blaise Pascal ====== | + | ====== Utilisation de Cluster@CBP avec Slurm au Centre Blaise Pascal ====== |
===== Ce qu'il faut retenir ! ===== | ===== Ce qu'il faut retenir ! ===== | ||
Ligne 11: | Ligne 11: | ||
===== Contexte : exécution de tâches "mode intéractif" ou "mode non connecté" ===== | ===== Contexte : exécution de tâches "mode intéractif" ou "mode non connecté" ===== | ||
- | Généralement, l'exécution d'un programme au CBP sur une machine se fait via un terminal en ligne de commande. Les tâches, listées dans un script s'exécutent sur la machine hôte les unes après les autres. Se déconnecter de son terminal met fin à l'exécution de son programme. Avec **tmux** ou **screen**, il est possible de maintenir ses exécutions en se "détachant" de son terminal pour y revenir ensuite. | + | Généralement, l'exécution d'un programme au CBP sur une machine se fait via un terminal en ligne de commande. Les tâches, listées dans un script, s'exécutent sur la machine hôte les unes après les autres. Se déconnecter de son terminal met fin à l'exécution de son programme. Avec **tmux** ou **screen**, il est possible de maintenir ses exécutions en se "détachant" de son terminal pour y revenir ensuite. |
Il est très profitable d'avoir un "soumissionneur" pour distribuer ses tâches à un ensemble de ressources disponibles, sans avoir à se connecter de manière individuelle sur chaque machine. L'exploitation de programmes parallèlisés s'exécutant de manière concurrente sur plusieurs coeurs d'une même machine ou sur plusieurs machines | Il est très profitable d'avoir un "soumissionneur" pour distribuer ses tâches à un ensemble de ressources disponibles, sans avoir à se connecter de manière individuelle sur chaque machine. L'exploitation de programmes parallèlisés s'exécutant de manière concurrente sur plusieurs coeurs d'une même machine ou sur plusieurs machines | ||
Ligne 34: | Ligne 34: | ||
dispose d'une infrastructure de production]]. | dispose d'une infrastructure de production]]. | ||
- | Les équipements accessibles via le soumissionneur SLURM sont 154 noeuds répartis de 4 types différents pour un total de 2080 coeurs et plus de 9 TB de RAM agrégées. | + | Les équipements accessibles via le soumissionneur SLURM sont 96 noeuds répartis de 4 types différents pour un total de 1888 coeurs et plus de 8 TB de RAM agrégées. |
| **Cluster** | **Marque** | **Modèle** | **Noeuds** | **Coeurs /Noeud** |**RAM /Noeud**|**Réseau GE**|**Réseau IB**|**Total Coeurs**|**Total RAM**| | | **Cluster** | **Marque** | **Modèle** | **Noeuds** | **Coeurs /Noeud** |**RAM /Noeud**|**Réseau GE**|**Réseau IB**|**Total Coeurs**|**Total RAM**| | ||
| **r422** | Supermicro | R422 | 64 | 8 | 48 GB | GE | IB | 512 | 3072 GB | | | **r422** | Supermicro | R422 | 64 | 8 | 48 GB | GE | IB | 512 | 3072 GB | | ||
+ | | **c61** | Dell | S9200 | 16 | 12 | 24 GB | GE | IB | 192 | 384 GB | | ||
| **s92** | Intel | S9200 | 12 | 96 | 384 GB | GE | IB | 1152 | 4608 GB | | | **s92** | Intel | S9200 | 12 | 96 | 384 GB | GE | IB | 1152 | 4608 GB | | ||
| **c82gluster** | Dell | C8220 | 4 | 16 | 64 GB | GE | IB | 32 | 256 GB | | | **c82gluster** | Dell | C8220 | 4 | 16 | 64 GB | GE | IB | 32 | 256 GB | |