Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
ressources:ressources [2020/09/16 13:22]
equemene [Une utilisation toujours croissante]
ressources:ressources [2023/11/13 07:40] (Version actuelle)
equemene [Équipements informatiques matériels]
Ligne 1: Ligne 1:
 ====== La nouveauté, le portail Cloud@CBP ====== ====== La nouveauté, le portail Cloud@CBP ======
  
-Pour simplifier l'​accès aux ressources du Centre Blaise Pascal, le portail [[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]] permet de **visualiser** et **sélectionner** les ressources disponibles.+Pour simplifier l'​accès aux ressources du Centre Blaise Pascal, le portail ​**[[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]]** permet de **visualiser** et **sélectionner** les ressources disponibles. 
 + 
 +Les ressources disponibles sont alors facilement accessibles via SSH ou [[ressources:​x2go4cbp|x2go]]. 
 + 
  
 ====== Une utilisation toujours croissante ====== ====== Une utilisation toujours croissante ======
Ligne 11: Ligne 15:
  
 Maintenant, le Centre Blaise Pascal dispose d'un ensemble de [[developpement:​productions:​plateaux|plateaux techniques]] destinés à la formation, l'​étude (de l'​expérience au prototypage),​ le développement ou la qualification dans tous les segments de l'​informatique scientifique : Maintenant, le Centre Blaise Pascal dispose d'un ensemble de [[developpement:​productions:​plateaux|plateaux techniques]] destinés à la formation, l'​étude (de l'​expérience au prototypage),​ le développement ou la qualification dans tous les segments de l'​informatique scientifique :
-  * plateau multi-noeuds : 116 noeuds ​de cluster v20z, x2200, x41z, x4500, ​r410, sl230 et c6100 totalisant presque 1000 coeurs +  * plateau multi-noeuds : 2 clusters de 64 noeuds r410 et r4221 cluster de 16 noeuds ​c6100, 1 cluster de 12 noeuds s9200 
-  * plateau multi-coeurs : 116 noeuds ​de cluster, 60 stations de travail ​de 2 à 64 coeurs +  * plateau multi-coeurs : près de 250 machines disposant ​de 2 à 128 coeurs ​physiques dans 48 modèles différents 
-  * plateau GPU : 4 noeuds ​de cluster ​de prêt et 60 stations ​de travail. ​ avec 70 GPU différents +  * plateau GPU : plus de 100 machines offrant plus de 135 GPU de 67 modèles ​différents
-  * plateau [[recherche:​projets:​ahn|Atelier en Humanités Numériques]]+
   * plateau "​intégration logicielle"​ : distributions Debian, Ubuntu, CentOS   * plateau "​intégration logicielle"​ : distributions Debian, Ubuntu, CentOS
   * plateau "​intégration matérielle"​ : Sparc 32, PowerPC, ARM (sur demande)   * plateau "​intégration matérielle"​ : Sparc 32, PowerPC, ARM (sur demande)
   * plateau "​Visualisation 3D" : 2 stations, 4 paires de lunettes, 2 vidéoprojecteurs   * plateau "​Visualisation 3D" : 2 stations, 4 paires de lunettes, 2 vidéoprojecteurs
   * plateau COMOD : "​Compute On My Own Device"​   * plateau COMOD : "​Compute On My Own Device"​
-  * plateau [[http://galaxy2.cbp.ens-lyon.fr|Galaxy]]+  * plateau ​Galaxy externe ​[[http://diet.ens-lyon.fr|Diet]] 
 +  * plateau Galaxy interne [[http://​galaxy3.cbp.ens-lyon.fr|Galaxy3]]
   * plateau pour les ateliers [[animation:​projets:​3ip|3IP pour "​Introduction Inductive à l'​Informatique et au Parallélisme"​]]   * plateau pour les ateliers [[animation:​projets:​3ip|3IP pour "​Introduction Inductive à l'​Informatique et au Parallélisme"​]]
  
 Pour simplifier l'​accès à la majorité de ces machines, le portail [[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]] existe : il permet ​ Pour simplifier l'​accès à la majorité de ces machines, le portail [[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]] existe : il permet ​
-  * de visualiser les ressources ​disponible+  * de visualiser les ressources ​disponibles
   * de sélectionner un type de machine en fonction de ses ressources ​   * de sélectionner un type de machine en fonction de ses ressources ​
  
Ligne 34: Ligne 38:
  
 L'​[[gridengine4cbp|utilisation]] des clusters (plateaux multi-noeuds & multi-coeurs) se base sur GridEngine. ​ L'​[[gridengine4cbp|utilisation]] des clusters (plateaux multi-noeuds & multi-coeurs) se base sur GridEngine. ​
 +====== Espaces de stockage du CBP ======
 +
 +L'​utilisateur dispose sur les machines **[[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]]** de 6 espaces de stockage :
 +  * son compte utilisateur **$HOME** : **partagé entre les machines**. Chaque utilisateur dispose d'un quota de **20 GB**. Il ne doit pas être trop sollicité pour des calculs nécessitant de gros transferts. Un archivage (permettant de revenir sur l'​état du volume dans le passé) est réalisé chaque nuit.
 +  * l'​espace temporaire **/tmp** : ce dossier est en mémoire vive. Rapide, il est raisonnable de ne pas trop le solliciter pour les gros volumes. Une fois la mémoire vive remplie, des dysfonctionnements peuvent apparaître.
 +  * l'​espace local **/local** : ce dossier correspond à un disque dur interne, d'un volume de **500 GB** à **50 TB**. La vitesse d'​accès est d'une centaine de MB/s. Il n'est ni partagé, ni sauvegardé. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​local/​$USER''​
 +  * l'​espace vrac **/​scratch** : **partagé entre les machines**, de **120 TB**, ni archivé, ni sauvegardé. Il dispose d'un accès rapide (autour de 100 MB/s) sur le réseau de la salle et très rapide (autour de 300 MB/s) sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​scratch/​$USER''​
 +  * l'​espace vrac récent **/​distonet**:​ **partagé entre les machines**, de **120 TB**, ni archivé mais sauvegardé. Il dispose d'un accès rapide sur le réseau de la salle (autour de 100 MB/s) et très très rapide sur le réseau du cluster (autour de 2 GB/s). Ne JAMAIS l'​exploiter pour des traitements générant ou traitant au delà de 10000 fichiers ! Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​distonet/​$USER''​
 +  * l'​espace projets **/​projects**:​ **partagé entre les machines**, de **12 TB**, archivé mais non sauvegardé. C'est un espace collaboratif. Il dispose d'un accès rapide sur le réseau de la salle et sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​projects/​users/​$USER''​
 +
 +<note important>​La règle la plus importante pour le stockage est : "On ne travaille PAS dans son $HOME"</​note>​
 +
 ====== Infrastructure logicielle cohérente ====== ====== Infrastructure logicielle cohérente ======
  
Ligne 40: Ligne 56:
 L'​intérêt de disposer de la même distribution,​ dans la même version, permet de faciliter au maximum la portabilité d'un équipement à l'​autre,​ et donc limiter les temps d'​intégration : un outil développé sur un poste de travail pourra être compilé voire exécuté sans difficulté sur un autre équipement. L'​intérêt de disposer de la même distribution,​ dans la même version, permet de faciliter au maximum la portabilité d'un équipement à l'​autre,​ et donc limiter les temps d'​intégration : un outil développé sur un poste de travail pourra être compilé voire exécuté sans difficulté sur un autre équipement.
  
-Un certain nombre d'​applications scientifiques complémentaires (OpenSource ou propriétaires) ont été installées ​+Un certain nombre d'​applications scientifiques complémentaires (OpenSource ou propriétaires) ont été installées. ​Elles sont accessibles dans ''​/opt''​ ou listables via la commande ''​module avail''​.
- +
-[[http://​www.sagemath.org/|SageMath]] en GPL et son installation,​ \\ +
-[[http://​inac.cea.fr/​L_Sim/​BigDFT/​|BigDFT]] en GPL et son installation,​ \\ +
-[[http://​www.cpmd.org/​|CPMD]] en [[http://​www.cpmd.org/​cpmd_licence.html|CPMD free-licence]] et son [[developpement:​activites:​integration:​cpmd4jessie|installation]],​ \\ +
-[[http://​lammps.sandia.gov/​|Lammps]] en [[http://​lammps.sandia.gov/​open_source.html|GPL]] et son [[developpement:​activites:​integration:​lammps4debian|installation]],​ \\ +
-[[http://​www.ks.uiuc.edu/​Research/​vmd/​|VMD]] et son [[developpement:​activites:​integration:​vmd4jessie|installation]],​ \\ +
-[[http://​www.cmbi.ru.nl/​molden/​|Molden]] et son [[developpement:​activites:​integration:​molden4jessie|installation]],​ \\ +
-[[http://​www.gaussian.com/​|Gaussian]] propriétaire et son [[developpement:​activites:​integration:​gaussian4jessie|installation]],​ \\ +
-[[http://​ambermd.org/​|Amber9]] propriétaire et son [[developpement:​activites:​integration:​amber94jessie|installation]],​ \\ +
-.. +
  
  
 ====== Équipements informatiques matériels ====== ====== Équipements informatiques matériels ======
  
-<note tip>Les équipements suivants forment le [[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|**Cloud@CBP**]] : presque 70 machines directement accessibles avec le même environnement</​note>​+<note tip>Les équipements suivants forment le **[[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]]** plus de 150 machines directement accessibles avec le même environnement</​note>​
 ==== Équipements généraux ==== ==== Équipements généraux ====
  
Ligne 63: Ligne 68:
     * 8 serveurs de fichiers     * 8 serveurs de fichiers
  
-==== Salle informatique de 28 postes ====+==== Salle informatique de 24 postes ==== 
 La salle informatique M7-1H04 de travaux pratiques comprend : La salle informatique M7-1H04 de travaux pratiques comprend :
   * **12 stations de travail Precision T5600** avec E5-2620 et 32/64 Go   * **12 stations de travail Precision T5600** avec E5-2620 et 32/64 Go
Ligne 94: Ligne 100:
     * **o790alpha** : Nvidia NVS 315 avec 1Go     * **o790alpha** : Nvidia NVS 315 avec 1Go
     * **o790beta** : Nvidia GT620 avec 1Go     * **o790beta** : Nvidia GT620 avec 1Go
-  * **4 postes de travail Optiplex 760** : 8Go 
-    * **o760alpha** : Nvidia GT 620 avec 1Go, Intel Q6600 
-    * **o760beta** : Nvidia GT 620 avec 1Go, Intel E7500 
-    * **o760gamma** : Nvidia GT 430 avec 1Go, Intel E5200 
-    * **o760delta** : Nvidia GT 620 avec 1Go, Intel E5400 
  
 Ces machines sont accessibles par SSH ou x2go : ''<​nom>​.cbp.ens-lyon.fr'' ​ Ces machines sont accessibles par SSH ou x2go : ''<​nom>​.cbp.ens-lyon.fr'' ​
  
-Une vision d'​ensemble de l'​[[http://​styx.cbp.ens-lyon.fr/​ganglia/?​r=hour&​c=Workstations|état des stations de travail]] sous [[developpement:​productions:​sidus4stretch|SIDUS]] ​est accessible seulement de l'​intérieur de l'​ENS-Lyon.+Une vision d'​ensemble de l'​[[http://​www.cbp.ens-lyon.fr/​python/forms/​CloudCBP|état des stations de travail]] sous [[developpement:​productions:​sidus|SIDUS]].
  
-L'​utilisateur dispose sur ces machines ​de 6 espaces de stockage : +==== Salle collaborative Machine Learning ​de 12+1 postes ====
-  * son compte utilisateur ''​$HOME''​ : monté en NFS, il ne doit pas être trop sollicité pour des calculs nécessitant de gros transferts. Un archivage (permettant de revenir sur l'​état du volume dans le passé) est réalisé chaque nuit. +
-  * l'​espace temporaire ''/​tmp''​ : ce dossier est en mémoire vive. Rapide, il est raisonnable de ne pas trop le solliciter pour les gros volumes. Une fois la mémoire vive remplie, des dysfonctionnements peuvent apparaître. +
-  * l'​espace local ''/​local''​ : ce dossier correspond à un disque dur interne. La vitesse d'​accès est d'une centaine de MB/s. Il n'est ni partagé, ni sauvegardé. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​local/​$USER''​ +
-  * l'​espace vrac ancien ''/​scratch'':​ ce dossier, partagé mais non sauvegardé entre toutes les machines, dispose d'un accès rapide sur le réseau de la salle et très rapide sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​scratch/​$USER''​ +
-  * l'​espace vrac récent ''/​distonet'':​ ce dossier, partagé mais non sauvegardé entre toutes les machines, dispose d'un accès rapide sur le réseau de la salle et très rapide sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​distonet/​$USER''​ +
-  * l'​espace projets ''/​projects'':​ ce dossier, archivé mais non sauvegardé entre toutes les machines, dispose d'un accès rapide sur le réseau de la salle et sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​projects/​users/​$USER''​+
  
-<note important>​La règle la plus importante ​pour le stockage est "On ne travaille PAS dans son $HOME"</​note>​+La salle collaborative M7-1H19 de travaux pratiques comprend : 
 +  * **12 stations de travail Optiplex 790** avec Intel i3-2120 ​ et 16 Go 
 +    * **mla1** : Nvidia T1000 avec 8 Go  
 +    * **mla2** : Nvidia T400 avec 4 Go  
 +    * **mla3** : Nvidia T400 avec 4 Go 
 +    * **mla4** : Nvidia GTX 1650 avec 4 Go 
 +    * **mlb1** : Nvidia RTX A2000 avec 12 Go  
 +    * **mlb2** : Nvidia GTX 750Ti avec 2 Go 
 +    * **mlb3** : Nvidia GT 1030 avec 2 Go 
 +    * **mlb4** : Nvidia T1000 avec 8 Go  
 +    * **mlc1** : Nvidia GTX 1650 avec 8 Go  
 +    * **mlc2** : Nvidia GT 1030 avec 2 Go 
 +    * **mlc3** : Nvidia RTX A2000 avec 12 Go  
 +    * **mlc4** : Nvidia T400 avec 4 Go  
 +  * **1 station** ​pour le professeur avec Intel i7-10700 et 64 Go 
 +    * **mld** ​Nvidia P2200 avec 5 Go 
  
 +Ces machines sont accessibles par SSH ou x2go : ''<​nom>​.cbp.ens-lyon.fr'' ​
 +
 +Une vision d'​ensemble de l'​[[http://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|état des stations de travail]] sous [[developpement:​productions:​sidus|SIDUS]].
 ==== Machines ouvertes en salle 3IP à accélérateur AMD ou Nvidia ==== ==== Machines ouvertes en salle 3IP à accélérateur AMD ou Nvidia ====
  
   * **8 stations de travail ouvertes**   * **8 stations de travail ouvertes**
     * **fx9590** : processeur AMD FX9590 cadencé à 4715MHz ​     * **fx9590** : processeur AMD FX9590 cadencé à 4715MHz ​
-      * Nvidia Tesla C0160 avec 4GB +      * AMD Radeon R9-Fury 
-      * Nvidia Quadro FX4800 avec 2GB+      * AMD Radeon Nano
     * **kaveri** : processeur AMD Kaveri A10-7850     * **kaveri** : processeur AMD Kaveri A10-7850
       * AMD GPU d'un A10-7850       * AMD GPU d'un A10-7850
Ligne 133: Ligne 146:
       * AMD Radeon VII       * AMD Radeon VII
       * AMD Radeon Vega 64       * AMD Radeon Vega 64
-      * AMD Radeon Nano +
-    * **i9900ks** : processeur Intel i9-9900 KS +
-      * Nvidia RTX 2080Ti avec 12 Go +
-    * **ryzen3800** : processeur Ryzen 3800X +
-      * Nvidia RTX 2080Ti avec 12 Go +
-    * **phi7210** : processeur Xeon Phi 7210 +
-      * avec 64 coeurs et 256 threads+
   ​   ​
 Ces machines sont accessibles en salle 3IP et par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​ Ces machines sont accessibles en salle 3IP et par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​
Ligne 154: Ligne 161:
 {{ :​ressources:​cimg0039.jpg?​nolink&​200 |}} {{ :​ressources:​cimg0039.jpg?​nolink&​200 |}}
  
-  * **un cluster 64 bits** de 84 noeuds permanents et sa frontale +  * **un cluster 64 bits** de 156 noeuds permanents et sa frontale 
-    * accès par **lethe.cbp.ens-lyon.fr** avec soumission par [[ressources:​gridengine4cbp|GridEngine]]+    * accès par **cocyte.cbp.ens-lyon.fr** avec soumission par [[ressources:​slurm4cbp|Slurm]]
  
   * **24 stations d'​intégration :**   * **24 stations d'​intégration :**
Ligne 187: Ligne 194:
     * **p100gamma** : 2x Nvidia Tesla P100 avec 16GB     * **p100gamma** : 2x Nvidia Tesla P100 avec 16GB
     * **v100alpha** : Nvidia Tesla V100 avec 16GB     * **v100alpha** : Nvidia Tesla V100 avec 16GB
-    * **v100beta** : Nvidia Tesla V100 avec 16GB+    * <del>**v100beta** : Nvidia Tesla V100 avec 16GB</​del>​
  
 Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​ Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​
Ligne 195: Ligne 202:
   * **6 stations de travail "​ouvertes"​**   * **6 stations de travail "​ouvertes"​**
     * **openstation6** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD     * **openstation6** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD
-    * **openstation7** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD +    * **openstation7** : 1 RTX 2080 Super avec 8GB, 1 GTX 780 avec 3GB, espace de stockage de 4TB en SSHD 
-    * **openstation8** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD+    * **openstation8** : 1 RTX 2080 Super avec 8GB, 1 GTX 980 avec 8GB, espace de stockage de 4TB en SSHD
     * **openstation9** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD     * **openstation9** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD
-    * **openstation5** : 1 Nvidia GTX 780 avec 3GB, espace de stockage de 4TB en SSHD +  ​* **5 serveurs ​rackables**
-    * **openstation4** : 1 Nvidia GTX 780 avec 3GB, espace de stockage de 4TB +
-  ​* **5 stations ​rackables**+
     * **r5400alpha** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1     * **r5400alpha** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1
     * **r5400beta** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1     * **r5400beta** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1
-    * **rome4gpu** : 4 Nvidia RTX 2080 Super avec 8GB, expace ​de stockage de 3TB en Raid5 +    ​* **r720gpu1** : 2 Nvidia GTX 1080 Ti avec 8GB, espace de stockage de 13TB en Raid5 
-    * **epyc1** : Nvidia RTX 2080 avec 8GB, espace de stockage de 10TB en Raid5 +    * **r730server6** : 2 Nvidia RTX 2080 Ti avec 12GB, espace de stockage de 13TB en Raid5 
-    * **epyc2** : Nvidia RTX 2080 avec 8GB, espace de stockage de 10TB en Raid5+    * **r740gpu2** : 2 Nvidia A100 avec 40GB, espace de stockage de 6TB en Raid5 
 +    ​* **rome4gpu** : 4 Nvidia RTX 2080 Super avec 8GB, espace ​de stockage de 3TB en Raid5 
 +    * **epyc1** : Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 
 +    * **epyc2** : Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 
 +    * **epyc3** : 2 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 
 +    * **epyc4** : 2 Nvidia RTX 6000 Super avec 24GB, espace de stockage de 11TB en Raid5 
 +    * **c4140** : 2 Nvidia Tesla V100 Super avec 16GB, espace de stockage de 50TB en Raid5
  
 Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​ Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​
  
 +==== Serveurs "​historiques"​ et récents, multicoeurs ====
  
 +  * **14 serveurs "​historiques"​**
 +    * **v20z1** : serveur SunFire v20z bisocket, 2 coeurs, avec 16GB de RAM et 70GB de **/local**
 +    * **v20z2** : serveur SunFire v20z bisocket, 2 coeurs, avec 16GB de RAM et 70GB de **/local**
 +    * **x2200node1** : serveur SunFire x2200 4 coeurs, avec 32GB de RAM et 500GB de **/local**
 +    * **x2200node2** : serveur SunFire x2200 4 coeurs, avec 32GB de RAM et 500GB de **/local**
 +    * **x4500node3** : serveur SunFire x4500 2 coeurs, avec 16GB de RAM et 20TB de **/local**
 +    * **x4500node4** : serveur SunFire x4500 2 coeurs, avec 16GB de RAM et 20TB de **/local**
 +    * **sl165node1** : serveur HP DL165 bisocket, 12 coeurs, avec 32GB de RAM et aucun espace **/local**
 +    * **sl165node2** : serveur HP DL165 bisocket, 12 coeurs, avec 32GB de RAM et aucun espace **/local**
 +    * **r815node1** : serveur Dell R815 32 coeurs, aucun espace de **/local**
 +    * **r815node2** : serveur Dell R815 32 coeurs, aucun espace de **/local**
 +    * **r815node3** : serveur Dell R815 32 coeurs, aucun espace de **/local**
 +    * **r815node4** : serveur Dell R815 32 coeurs, aucun espace de **/local**
 +    * **r815cores32** : serveur Dell R815 32 coeurs, 2TB de **/local**
 +    * **r815cores48** : serveur Dell R815 48 coeurs, 4TB de **/local**
 +  * **6 serveurs récents**
 +    * **apollo192g1** : serveur HPE avec 32 coeurs, 192GB de RAM, 2TB de **/local**
 +    * **apollo192g2** : serveur HPE avec 32 coeurs, 192GB de RAM, 4TB de **/local**
 +    * **apollo1024g** : serveur HPE avec 32 coeurs, 1TB de DCPMM, 2TB de **/local**
 +    * **apollo2048g** : serveur HPE avec 32 coeurs, 2TB de DCPMM, 15TB de **/local**
 +    * **epyc1** : serveur Supermicro avec 64 coeurs, 11TB de **/local**
 +    * **epyc2** : serveur Supermicro avec 128 coeurs, 11TB de **/local**
 ==== Infrastructure SIDUS ==== ==== Infrastructure SIDUS ====
  
-L'​infrastructure [[developpement:​productions:​sidus|SIDUS]] pour //Single Instance Distributing Universal System// permet aux personnes de l'ENS qui le désirent de démarrer en quelques secondes un environnement scientifique complet, basé sur la dernière distribution stable de Debian, la Jessie ​à l'​heure actuelle. Cet environnement peut aussi bien démarrer sur une machine complète ou dans une machine virtuelle. Il y a 5 options possibles pour lancer cette version : +L'​infrastructure [[developpement:​productions:​sidus|SIDUS]] pour //Single Instance Distributing Universal System// permet aux personnes de l'ENS qui le désirent de démarrer en quelques secondes un environnement scientifique complet, basé sur la dernière distribution stable de Debian, la Bookworm ​à l'​heure actuelle. Cet environnement peut aussi bien démarrer sur une machine complète ou dans une machine virtuelle. Il y a 5 options possibles pour lancer cette version : 
-  * **Debian ​Stretch ​on x86_64 : default** pour l'​usage dans un environnement 64 bits, optimisé pour un environnement virtuel sous VirtualBox ; +  * **Debian ​Bookworm ​on x86_64 : default** pour l'​usage dans un environnement 64 bits, optimisé pour un environnement virtuel sous VirtualBox ; 
-  * **Debian ​Stretch on x86_64 : OverlayFS version** identique à la précédente,​ mais avec du OverlayFS à la place de AUFS +  * **Debian ​Bookworm ​on x86_64 : Nvidia Current** support propriétaire avec pilote & environnement le plus récent 
-  * **Debian Stretch ​on x86_64 : Nvidia Current** support propriétaire avec pilote & environnement le plus récent +  * **Debian ​Bookworm ​on x86_64 : Nvidia Screenless** support propriétaire avec pilote & environnement le plus récent, pour machines sans moniteur 
-  * **Debian ​Stretch ​on x86_64 : Nvidia Screenless** support propriétaire avec pilote & environnement le plus récent, pour machines sans moniteur +  * **Debian ​Bookworm ​on x86_64 : Nvidia ​470** support propriétaire avec pilote & environnement ​470.*, pour cartes graphiques anciennes (Kepler ​inclues) 
-  * **Debian ​Stretch ​on x86_64 : Nvidia ​340xx** support propriétaire avec pilote & environnement ​340.*, pour cartes graphiques anciennes (GT200 inclues) +  * **Debian ​Bookworm ​on x86_64 : Nvidia ​340xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques anciennes (GT200 inclues) 
-  * **Debian ​Stretch ​on x86_64 : Nvidia ​304xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques ​très anciennes (GT200 inclues) +  * **Debian ​Bookworm ​on x86_64 : AMDGPU Pro** support propriétaire avec pilote & environnement,​ pour cartes graphiques ​AMD récentes 
-  * **Debian ​Stretch ​on x86_64 : AMD/ATI** support propriétaire avec pilote & environnement,​ pour cartes graphiques AMD+  * **Debian Bookworm on x86_64 : AMDGPU** support propriétaire avec pilote & environnement,​ pour cartes graphiques AMD jusqu'​à Nano 
 +  * **Debian Bookworm on x86_64 : Radeon** support propriétaire avec pilote & environnement,​ pour cartes graphiques AMD jusqu'​à 295X2
  
  
ressources/ressources.1600255358.txt.gz · Dernière modification: 2020/09/16 13:22 par equemene