La nouveauté, le portail Cloud@CBP

Pour simplifier l'accès aux ressources du Centre Blaise Pascal, le portail Cloud@CBP permet de visualiser et sélectionner les ressources disponibles.

Les ressources disponibles sont alors facilement accessibles via SSH ou x2go.

Une utilisation toujours croissante

Graphique de l'utilisation de la plateforme CloudCBP entre les années 2017 et 2024 pour les laboratoires en heures.sessions.

Graphique de l'utilisation de la plateforme CloudCBP entre les années 2017 et 2024 pour le nombre d'utilisateurs.

Ces graphiques n'intègrent pas les autres plates-formes administrées par le CBP, à savoir :

Un ensemble de plateaux techniques

A l'origine, les ressources informatiques du Centre Blaise Pascal étaient celles du Cecam, essentiellement cantonnées à la salle informatique.

Maintenant, le Centre Blaise Pascal dispose d'un ensemble de plateaux techniques destinés à la formation, l'étude (de l'expérience au prototypage), le développement ou la qualification dans tous les segments de l'informatique scientifique :

  • plateau multi-noeuds : 1 cluster de 64 noeuds c8220, 1 cluster de 4 noeuds c6100, 1 cluster de 12 noeuds s9200
  • plateau multi-coeurs : près de 250 machines disposant de 2 à 128 coeurs physiques dans 48 modèles différents
  • plateau GPU : plus de 150 machines offrant plus de 150 GPU dans plus de 70 modèles différents
  • plateau “Visualisation 3D” : 2 stations, 4 paires de lunettes, 2 vidéoprojecteurs
  • plateau Galaxy externe Diet
  • plateau Galaxy interne Galaxy3

Pour simplifier l'accès à la majorité de ces machines, le portail Cloud@CBP existe : il permet

  • de visualiser les ressources disponibles
  • de sélectionner un type de machine en fonction de ses ressources

Ces plateaux reposent essentiellement sur :

  • une infrastructure logicielle cohérente
  • des équipements matériels génériques
  • une salle de formation correctement équipée
  • des clusters hétérogènes de récupération
  • un environnement d'administration simplifié SIDUS

L'utilisation des clusters (plateaux multi-noeuds & multi-coeurs) se base sur Slurm.

Espaces de stockage du CBP

L'utilisateur dispose sur les machines Cloud@CBP de 6 espaces de stockage :

  • son compte utilisateur $HOME : partagé entre les machines. Chaque utilisateur dispose d'un quota de 20 GB. Il ne doit pas être trop sollicité pour des calculs nécessitant de gros transferts. Un archivage (permettant de revenir sur l'état du volume dans le passé) est réalisé chaque nuit.
  • l'espace temporaire /tmp : ce dossier est en mémoire vive. Rapide, il est raisonnable de ne pas trop le solliciter pour les gros volumes. Une fois la mémoire vive remplie, des dysfonctionnements apparaissent.
  • l'espace local /local : ce dossier correspond à un stockage interne (disque dur ou NVMe), d'un volume de 500 GB à 50 TB. La vitesse d'accès est d'une centaine de MB/s. Il est archivé chaque nuit. Normalement, un espace personnel sur chaque machine à la première connexion /local/$USER
  • l'espace vrac /scratch : partagé entre les machines, de 120 TB, ni archivé, ni sauvegardé. Il dispose d'un accès rapide (autour de 100 MB/s) sur le réseau de la salle et très rapide (autour de 300 MB/s) sur le réseau du cluster. Pour l'exploiter, créer un dossier correspondant à son identifiant : mkdir /scratch/$USER
  • l'espace projets /projects: partagé entre les machines, de 120 TB, archivé et sauvegardé. C'est un espace collaboratif. Il dispose d'un accès rapide sur le réseau de la salle et sur le réseau du cluster. Pour l'exploiter, créer un dossier correspondant à son identifiant : mkdir /projects/users/$USER
La règle la plus importante pour le stockage est : “On ne travaille PAS dans son $HOME”

Infrastructure logicielle cohérente

La totalité des serveurs, des stations de travail et des postes de travail fonctionnent sous le système d'exploitation GNU/Linux, intégré au sein de la distribution Debian. Tous les postes à destination des utilisateurs sont équipés en standard d'un certain nombre de paquets exploités dans les générations précédentes de systèmes. L'installation de sous les paquets science n'est plus systématique sur la version Stretch actuellement en service. L'intérêt de disposer de la même distribution, dans la même version, permet de faciliter au maximum la portabilité d'un équipement à l'autre, et donc limiter les temps d'intégration : un outil développé sur un poste de travail pourra être compilé voire exécuté sans difficulté sur un autre équipement.

Un certain nombre d'applications scientifiques complémentaires (OpenSource ou propriétaires) ont été installées. Elles sont accessibles dans /opt ou listables via la commande module avail.

Équipements informatiques matériels

Les équipements suivants forment le Cloud@CBP : plus de 150 machines directement accessibles avec le même environnement

Équipements généraux

  • 30 serveurs physiques :
    • 22 serveurs de KVM ou de fichiers
    • 8 serveurs de fichiers

Salle informatique de 24 postes

La salle informatique M7-1H04 de travaux pratiques comprend :

  • 10 stations de travail Precision T5600 avec E5-2620 et 64 Go
    • gtx980 : Nvidia GTX 980 avec 4GB
    • gtxtitan : Nvidia RTX A4000 avec 16GB
    • gtx780ti : Nvidia RTX 3050 avec 6GB
    • q4000alpha : Nvidia P4000 avec 8Go et capacité 3D
    • gtx980tialpha : Nvidia GTX 980Ti avec 6Go, Nvidia GTX 750Ti avec 2Go
    • gtx980tibeta : Nvidia GTX 980Ti avec 6Go, Nvidia P600 avec 2Go
    • gtx980tidelta : Nvidia GTX 980Ti avec 6Go, Nvidia K420 avec 1Go
    • gt730 : Nvidia Nvidia RTX 2080 avec 8Go
  • 2 stations de travail Precision T5600 avec E5-2670 et 128 Go
    • gtx960 : Nvidia RTX 2080 Super avec 8Go
    • gtx970 : Nvidia RTX 2080 Super avec 8Go
  • 4 stations de travail Precision T5610 avec 2 E5-2609v2 et 64 Go
    • gtx980beta : Nvidia GTX 980 avec 4Go
    • gtx980tigamma : Nvidia GTX980Ti avec 6Go, Nvidia GTX 750 avec 2Go
    • k40 : Nvidia K2000 avec 2Go, Nvidia Tesla K40 avec 12Go
    • gt640 : Nvidia GT 640 avec 2Go, Nvidia RTX 2070 avec 8Go
  • 4 stations de travail Precision T7810 avec 2 E5-2630v3 et 32 Go
    • gtx780beta : Nvidia RTX 2080 Super avec 8Go
    • gtx780gamma : Nvidia GTX 1080 avec 8Go
    • gtx1050ti : Nvidia GTX 1050Ti avec 4Go, Nvidia P600 avec 2Go
  • 2 stations de travail Precision 7820 avec 2 Silver 4114 et 64 Go
    • p600alpha : Nvidia RTX 2080 Super avec 8Go
    • p600beta : Nvidia RTX 2080 Super avec 8Go
  • 2 stations de travail Precision 7825 avec
    • a400alpha : Nvidia RTX 2080 Ti avec 12Go
    • a400beta : Nvidia RTX 2080 Ti avec 12Go
  • 2 postes de travail Optiplex 790 avec 1 i3-2120 et 16 Go
    • o790alpha :
    • o790beta :

Ces machines sont accessibles par SSH ou x2go : <nom>.cbp.ens-lyon.fr

Une vision d'ensemble de l'état des stations de travail sous SIDUS.

Salle collaborative Machine Learning de 12+1 postes

La salle collaborative M7-1H19 de travaux pratiques comprend :

  • 12 stations de travail Optiplex 790 avec Intel i3-2120 et 16 Go
    • mla1 : Nvidia T1000 avec 8 Go
    • mla2 : Nvidia T400 avec 4 Go
    • mla3 : Nvidia T400 avec 4 Go
    • mla4 : Nvidia GTX 1650 avec 4 Go
    • mlb1 : Nvidia RTX A2000 avec 12 Go
    • mlb2 : Nvidia GTX 750Ti avec 2 Go
    • mlb3 : Nvidia GT 1030 avec 2 Go
    • mlb4 : Nvidia T1000 avec 8 Go
    • mlc1 : Nvidia GTX 1650 avec 8 Go
    • mlc2 : Nvidia GT 1030 avec 2 Go
    • mlc3 : Nvidia RTX A2000 avec 12 Go
    • mlc4 : Nvidia T400 avec 4 Go
  • 1 station pour le professeur avec Intel i7-10700 et 64 Go
    • mld : Nvidia P2200 avec 5 Go

Ces machines sont accessibles par SSH ou x2go : <nom>.cbp.ens-lyon.fr

Une vision d'ensemble de l'état des stations de travail sous SIDUS.

Machines ouvertes en salle 3IP à accélérateur AMD

  • 8 stations de travail ouvertes
    • fx9590 : processeur AMD FX9590 cadencé à 4715MHz
    • kaveri : processeur AMD Kaveri A10-7850
    • ryzen7 : processeur Ryzen7-1800X
    • skylake : processeur Intel Skylake i7-6700K

Ces machines sont accessibles en salle 3IP et par SSH et x2go : <nom>.cbp.ens-lyon.fr

Bureau M7-1H07 avec capacité 3D

  • 1 station de travail Precision T7600 avec 2 Saondy Bridge 8 coeurs
    • k4000 : Nvidia Quadro K4000 avec 2 Go avec 2Go

Équipements spécifiques

Cliquez pour afficher ⇲

Cliquez pour masquer ⇱

  • un cluster 64 bits de 156 noeuds permanents et sa frontale
    • accès par cocyte.cbp.ens-lyon.fr avec soumission par Slurm

Machines virtuelles à accélérateur

  • 14 stations de travail virtuelles
    • phi7120p : Xeon Phi 7120p avec 12GB
    • k40m : Nvidia Tesla K40m avec 12GB
    • k80alpha : 1/2 de Tesla K80 - 1GPU avec 12GB
    • k80beta : 1/2 de Tesla K80 - 1GPU avec 12GB
    • k80gamma : Tesla K80 - 2GPU avec 12GB
    • gtx1080alpha : Nvidia GTX 1080 avec 8GB
    • gtx1080beta : Nvidia GTX 1080 avec 8GB
    • gtx1080gamma : Nvidia GTX 1080 avec 8GB
    • gtx1080delta : Nvidia GTX 1080 avec 8GB
    • p100alpha : Nvidia Tesla P100 avec 16GB
    • p100beta : Nvidia Tesla P100 avec 16GB
    • p100gamma : 2x Nvidia Tesla P100 avec 16GB
    • v100alpha : Nvidia Tesla V100 avec 16GB
    • v100beta : Nvidia Tesla V100 avec 16GB

Ces machines sont accessibles par SSH et x2go : <nom>.cbp.ens-lyon.fr

Stations Deep Learning à accélérateur

Toutes les machines permettant des opérations de Machine Learning sont équipées de GPU (entre 1 et 4 unités).

Il est possible de consulter en un clic l'ensemble de ces machines en sélectionnant Machine à GPU classée par VRAM disponible sur la page de CloudCBP.

Ces machines sont accessibles par SSH et x2go : <nom>.cbp.ens-lyon.fr

Serveurs "historiques" et récents, multicoeurs

  • 14 serveurs “historiques”
    • v20z1 : serveur SunFire v20z bisocket, 2 coeurs, avec 16GB de RAM et 70GB de /local
    • v20z2 : serveur SunFire v20z bisocket, 2 coeurs, avec 16GB de RAM et 70GB de /local
    • x2200node1 : serveur SunFire x2200 4 coeurs, avec 32GB de RAM et 500GB de /local
    • x2200node2 : serveur SunFire x2200 4 coeurs, avec 32GB de RAM et 500GB de /local
    • x4500node3 : serveur SunFire x4500 2 coeurs, avec 16GB de RAM et 20TB de /local
    • x4500node4 : serveur SunFire x4500 2 coeurs, avec 16GB de RAM et 20TB de /local
    • sl165node1 : serveur HP DL165 bisocket, 12 coeurs, avec 32GB de RAM et aucun espace /local
    • sl165node2 : serveur HP DL165 bisocket, 12 coeurs, avec 32GB de RAM et aucun espace /local
    • r815node1 : serveur Dell R815 32 coeurs, aucun espace de /local
    • r815node2 : serveur Dell R815 32 coeurs, aucun espace de /local
    • r815node3 : serveur Dell R815 32 coeurs, aucun espace de /local
    • r815node4 : serveur Dell R815 32 coeurs, aucun espace de /local
    • r815cores32 : serveur Dell R815 32 coeurs, 2TB de /local
    • r815cores48 : serveur Dell R815 48 coeurs, 4TB de /local
  • 6 serveurs récents
    • apollo192g1 : serveur HPE avec 32 coeurs, 192GB de RAM, 2TB de /local
    • apollo192g2 : serveur HPE avec 32 coeurs, 192GB de RAM, 4TB de /local
    • apollo1024g : serveur HPE avec 32 coeurs, 1TB de DCPMM, 2TB de /local
    • apollo2048g : serveur HPE avec 32 coeurs, 2TB de DCPMM, 15TB de /local
    • epyc1 : serveur Supermicro avec 64 coeurs, 11TB de /local
    • epyc2 : serveur Supermicro avec 128 coeurs, 11TB de /local
    • epyc3 : serveur Supermicro avec 128 coeurs, 11TB de /local
    • epyc4 : serveur Supermicro avec 64 coeurs, 11TB de /local

Infrastructure SIDUS

L'infrastructure SIDUS pour Single Instance Distributing Universal System permet aux personnes de l'ENS qui le désirent de démarrer en quelques secondes un environnement scientifique complet, basé sur la dernière distribution stable de Debian, la Bookworm à l'heure actuelle. Cet environnement peut aussi bien démarrer sur une machine complète ou dans une machine virtuelle. Il y a 5 options possibles pour lancer cette version :

  • Debian Bookworm on x86_64 : default pour l'usage dans un environnement 64 bits, optimisé pour un environnement virtuel sous VirtualBox ;
  • Debian Bookworm on x86_64 : Nvidia Current support propriétaire avec pilote & environnement le plus récent
  • Debian Bookworm on x86_64 : Nvidia Screenless support propriétaire avec pilote & environnement le plus récent, pour machines sans moniteur
  • Debian Bookworm on x86_64 : Nvidia 470 support propriétaire avec pilote & environnement 470.*, pour cartes graphiques anciennes (Kepler inclues)
  • Debian Bookworm on x86_64 : Nvidia 340xx support propriétaire avec pilote & environnement 340.*, pour cartes graphiques anciennes (GT200 inclues)
  • Debian Bookworm on x86_64 : AMDGPU Pro support propriétaire avec pilote & environnement, pour cartes graphiques AMD récentes
  • Debian Bookworm on x86_64 : AMDGPU support propriétaire avec pilote & environnement, pour cartes graphiques AMD jusqu'à Nano
  • Debian Bookworm on x86_64 : Radeon support propriétaire avec pilote & environnement, pour cartes graphiques AMD jusqu'à 295×2

Postes de travail

Les postes de travail, à la demande des utilisateurs, peuvent être configurés et pris en charge comme les autres équipements, seulement s'ils entrent dans le cadre d'un projet soutenu dans le CBP (pour ne pas interférer avec la DSI ou les informaticiens de entités concernées).

Cliquez pour afficher ⇲

Cliquez pour masquer ⇱

Centre Blaise Pascal, Maison de la modélisation de Lyon, Maison de la simulation de Lyon, Hôtel à projets

ressources/ressources.txt · Dernière modification : de equemene