Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
ressources:ressources [2021/01/24 16:10]
equemene [Infrastructure logicielle cohérente]
ressources:ressources [2023/11/13 07:40] (Version actuelle)
equemene [Équipements informatiques matériels]
Ligne 15: Ligne 15:
  
 Maintenant, le Centre Blaise Pascal dispose d'un ensemble de [[developpement:​productions:​plateaux|plateaux techniques]] destinés à la formation, l'​étude (de l'​expérience au prototypage),​ le développement ou la qualification dans tous les segments de l'​informatique scientifique : Maintenant, le Centre Blaise Pascal dispose d'un ensemble de [[developpement:​productions:​plateaux|plateaux techniques]] destinés à la formation, l'​étude (de l'​expérience au prototypage),​ le développement ou la qualification dans tous les segments de l'​informatique scientifique :
-  * plateau multi-noeuds : 116 noeuds ​de cluster v20z, x2200, x41z, x4500, ​r410, sl230 et c6100 totalisant presque 1000 coeurs +  * plateau multi-noeuds : 2 clusters de 64 noeuds r410 et r4221 cluster de 16 noeuds ​c6100, 1 cluster de 12 noeuds s9200 
-  * plateau multi-coeurs : 116 noeuds ​de cluster, 60 stations de travail ​de 2 à 64 coeurs +  * plateau multi-coeurs : près de 250 machines disposant ​de 2 à 128 coeurs ​physiques dans 48 modèles différents 
-  * plateau GPU : 4 noeuds ​de cluster ​de prêt et 60 stations ​de travail. ​ avec 70 GPU différents +  * plateau GPU : plus de 100 machines offrant plus de 135 GPU de 67 modèles ​différents
-  * plateau [[recherche:​projets:​ahn|Atelier en Humanités Numériques]]+
   * plateau "​intégration logicielle"​ : distributions Debian, Ubuntu, CentOS   * plateau "​intégration logicielle"​ : distributions Debian, Ubuntu, CentOS
   * plateau "​intégration matérielle"​ : Sparc 32, PowerPC, ARM (sur demande)   * plateau "​intégration matérielle"​ : Sparc 32, PowerPC, ARM (sur demande)
   * plateau "​Visualisation 3D" : 2 stations, 4 paires de lunettes, 2 vidéoprojecteurs   * plateau "​Visualisation 3D" : 2 stations, 4 paires de lunettes, 2 vidéoprojecteurs
   * plateau COMOD : "​Compute On My Own Device"​   * plateau COMOD : "​Compute On My Own Device"​
-  * plateau [[http://galaxy2.cbp.ens-lyon.fr|Galaxy]]+  * plateau ​Galaxy externe ​[[http://diet.ens-lyon.fr|Diet]] 
 +  * plateau Galaxy interne [[http://​galaxy3.cbp.ens-lyon.fr|Galaxy3]]
   * plateau pour les ateliers [[animation:​projets:​3ip|3IP pour "​Introduction Inductive à l'​Informatique et au Parallélisme"​]]   * plateau pour les ateliers [[animation:​projets:​3ip|3IP pour "​Introduction Inductive à l'​Informatique et au Parallélisme"​]]
  
 Pour simplifier l'​accès à la majorité de ces machines, le portail [[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]] existe : il permet ​ Pour simplifier l'​accès à la majorité de ces machines, le portail [[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]] existe : il permet ​
-  * de visualiser les ressources ​disponible+  * de visualiser les ressources ​disponibles
   * de sélectionner un type de machine en fonction de ses ressources ​   * de sélectionner un type de machine en fonction de ses ressources ​
  
Ligne 40: Ligne 40:
 ====== Espaces de stockage du CBP ====== ====== Espaces de stockage du CBP ======
  
-L'​utilisateur dispose sur ces machines de 6 espaces de stockage : +L'​utilisateur dispose sur les machines ​**[[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]]** ​de 6 espaces de stockage : 
-  * son compte utilisateur ​''​$HOME'' ​: **partagé entre les machines**. Il ne doit pas être trop sollicité pour des calculs nécessitant de gros transferts. Un archivage (permettant de revenir sur l'​état du volume dans le passé) est réalisé chaque nuit. +  * son compte utilisateur ​**$HOME** : **partagé entre les machines**. Chaque utilisateur dispose d'un quota de **20 GB**. Il ne doit pas être trop sollicité pour des calculs nécessitant de gros transferts. Un archivage (permettant de revenir sur l'​état du volume dans le passé) est réalisé chaque nuit. 
-  * l'​espace temporaire ​''​/tmp'' ​: ce dossier est en mémoire vive. Rapide, il est raisonnable de ne pas trop le solliciter pour les gros volumes. Une fois la mémoire vive remplie, des dysfonctionnements peuvent apparaître. +  * l'​espace temporaire ​**/tmp** : ce dossier est en mémoire vive. Rapide, il est raisonnable de ne pas trop le solliciter pour les gros volumes. Une fois la mémoire vive remplie, des dysfonctionnements peuvent apparaître. 
-  * l'​espace local ''​/local'' ​: ce dossier correspond à un disque dur interne. La vitesse d'​accès est d'une centaine de MB/s. Il n'est ni partagé, ni sauvegardé. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​local/​$USER''​ +  * l'​espace local **/local** : ce dossier correspond à un disque dur interne, d'un volume de **500 GB** à **50 TB**. La vitesse d'​accès est d'une centaine de MB/s. Il n'est ni partagé, ni sauvegardé. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​local/​$USER''​ 
-  * l'​espace vrac ancien ''​/scratch''​: **partagé entre les machines**, ​mais non sauvegardé. Il dispose d'un accès rapide sur le réseau de la salle et très rapide sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​scratch/​$USER''​ +  * l'​espace vrac **/scratch** : **partagé entre les machines**, ​de **120 TB**, ni archivé, ni sauvegardé. Il dispose d'un accès rapide ​(autour de 100 MB/s) sur le réseau de la salle et très rapide ​(autour de 300 MB/s) sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​scratch/​$USER''​ 
-  * l'​espace vrac récent ​''​/distonet''​: **partagé entre les machines**, mais non sauvegardé. Il dispose d'un accès rapide sur le réseau de la salle et très rapide sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​distonet/​$USER''​ +  * l'​espace vrac récent ​**/distonet**: **partagé entre les machines**, ​de **120 TB**, ni archivé ​mais sauvegardé. Il dispose d'un accès rapide sur le réseau de la salle (autour de 100 MB/s) et très très rapide sur le réseau du cluster ​(autour de 2 GB/s)Ne JAMAIS l'​exploiter pour des traitements générant ou traitant au delà de 10000 fichiers ! Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​distonet/​$USER''​ 
-  * l'​espace projets ​''​/projects''​: **partagé entre les machines**, archivé mais non sauvegardé. Il dispose d'un accès rapide sur le réseau de la salle et sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​projects/​users/​$USER''​+  * l'​espace projets ​**/projects**: **partagé entre les machines**, de **12 TB**, archivé mais non sauvegardé. C'est un espace collaboratif. Il dispose d'un accès rapide sur le réseau de la salle et sur le réseau du cluster. Pour l'​exploiter,​ créer un dossier correspondant à son identifiant : ''​mkdir /​projects/​users/​$USER''​
  
 <note important>​La règle la plus importante pour le stockage est : "On ne travaille PAS dans son $HOME"</​note>​ <note important>​La règle la plus importante pour le stockage est : "On ne travaille PAS dans son $HOME"</​note>​
Ligne 56: Ligne 56:
 L'​intérêt de disposer de la même distribution,​ dans la même version, permet de faciliter au maximum la portabilité d'un équipement à l'​autre,​ et donc limiter les temps d'​intégration : un outil développé sur un poste de travail pourra être compilé voire exécuté sans difficulté sur un autre équipement. L'​intérêt de disposer de la même distribution,​ dans la même version, permet de faciliter au maximum la portabilité d'un équipement à l'​autre,​ et donc limiter les temps d'​intégration : un outil développé sur un poste de travail pourra être compilé voire exécuté sans difficulté sur un autre équipement.
  
-Un certain nombre d'​applications scientifiques complémentaires (OpenSource ou propriétaires) ont été installées ​+Un certain nombre d'​applications scientifiques complémentaires (OpenSource ou propriétaires) ont été installées. ​Elles sont accessibles dans ''​/opt''​ ou listables via la commande ''​module avail''​.
- +
-[[http://​www.sagemath.org/|SageMath]] en GPL et son installation,​ \\ +
-[[http://​inac.cea.fr/​L_Sim/​BigDFT/​|BigDFT]] en GPL et son installation,​ \\ +
-[[http://​www.cpmd.org/​|CPMD]] en [[http://​www.cpmd.org/​cpmd_licence.html|CPMD free-licence]] et son [[developpement:​activites:​integration:​cpmd4jessie|installation]],​ \\ +
-[[http://​lammps.sandia.gov/​|Lammps]] en [[http://​lammps.sandia.gov/​open_source.html|GPL]] et son [[developpement:​activites:​integration:​lammps4debian|installation]],​ \\ +
-[[http://​www.ks.uiuc.edu/​Research/​vmd/​|VMD]] et son [[developpement:​activites:​integration:​vmd4jessie|installation]],​ \\ +
-[[http://​www.cmbi.ru.nl/​molden/​|Molden]] et son [[developpement:​activites:​integration:​molden4jessie|installation]],​ \\ +
-[[http://​www.gaussian.com/​|Gaussian]] propriétaire et son [[developpement:​activites:​integration:​gaussian4jessie|installation]],​ \\ +
-[[http://​ambermd.org/​|Amber9]] propriétaire et son [[developpement:​activites:​integration:​amber94jessie|installation]],​ \\ +
-.. +
  
  
 ====== Équipements informatiques matériels ====== ====== Équipements informatiques matériels ======
  
-<note tip>Les équipements suivants forment le **[[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]]** : plus de 100 machines directement accessibles avec le même environnement</​note>​+<note tip>Les équipements suivants forment le **[[https://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|Cloud@CBP]]** : plus de 150 machines directement accessibles avec le même environnement</​note>​
 ==== Équipements généraux ==== ==== Équipements généraux ====
  
Ligne 79: Ligne 68:
     * 8 serveurs de fichiers     * 8 serveurs de fichiers
  
-==== Salle informatique de 28 postes ====+==== Salle informatique de 24 postes ==== 
 La salle informatique M7-1H04 de travaux pratiques comprend : La salle informatique M7-1H04 de travaux pratiques comprend :
   * **12 stations de travail Precision T5600** avec E5-2620 et 32/64 Go   * **12 stations de travail Precision T5600** avec E5-2620 et 32/64 Go
Ligne 110: Ligne 100:
     * **o790alpha** : Nvidia NVS 315 avec 1Go     * **o790alpha** : Nvidia NVS 315 avec 1Go
     * **o790beta** : Nvidia GT620 avec 1Go     * **o790beta** : Nvidia GT620 avec 1Go
-  * **4 postes de travail Optiplex 760** : 8Go 
-    * **o760alpha** : Nvidia GT 620 avec 1Go, Intel Q6600 
-    * **o760beta** : Nvidia GT 620 avec 1Go, Intel E7500 
-    * **o760gamma** : Nvidia GT 430 avec 1Go, Intel E5200 
-    * **o760delta** : Nvidia GT 620 avec 1Go, Intel E5400 
  
 Ces machines sont accessibles par SSH ou x2go : ''<​nom>​.cbp.ens-lyon.fr'' ​ Ces machines sont accessibles par SSH ou x2go : ''<​nom>​.cbp.ens-lyon.fr'' ​
  
-Une vision d'​ensemble de l'​[[http://​styx.cbp.ens-lyon.fr/​ganglia/?​r=hour&​c=Workstations|état des stations de travail]] sous [[developpement:​productions:​sidus4stretch|SIDUS]] ​est accessible seulement de l'​intérieur de l'​ENS-Lyon.+Une vision d'​ensemble de l'​[[http://​www.cbp.ens-lyon.fr/​python/forms/​CloudCBP|état des stations de travail]] sous [[developpement:​productions:​sidus|SIDUS]].
  
 +==== Salle collaborative Machine Learning de 12+1 postes ====
 +
 +La salle collaborative M7-1H19 de travaux pratiques comprend :
 +  * **12 stations de travail Optiplex 790** avec Intel i3-2120 ​ et 16 Go
 +    * **mla1** : Nvidia T1000 avec 8 Go 
 +    * **mla2** : Nvidia T400 avec 4 Go 
 +    * **mla3** : Nvidia T400 avec 4 Go
 +    * **mla4** : Nvidia GTX 1650 avec 4 Go
 +    * **mlb1** : Nvidia RTX A2000 avec 12 Go 
 +    * **mlb2** : Nvidia GTX 750Ti avec 2 Go
 +    * **mlb3** : Nvidia GT 1030 avec 2 Go
 +    * **mlb4** : Nvidia T1000 avec 8 Go 
 +    * **mlc1** : Nvidia GTX 1650 avec 8 Go 
 +    * **mlc2** : Nvidia GT 1030 avec 2 Go
 +    * **mlc3** : Nvidia RTX A2000 avec 12 Go 
 +    * **mlc4** : Nvidia T400 avec 4 Go 
 +  * **1 station** pour le professeur avec Intel i7-10700 et 64 Go
 +    * **mld** : Nvidia P2200 avec 5 Go 
 +
 +Ces machines sont accessibles par SSH ou x2go : ''<​nom>​.cbp.ens-lyon.fr'' ​
 +
 +Une vision d'​ensemble de l'​[[http://​www.cbp.ens-lyon.fr/​python/​forms/​CloudCBP|état des stations de travail]] sous [[developpement:​productions:​sidus|SIDUS]].
 ==== Machines ouvertes en salle 3IP à accélérateur AMD ou Nvidia ==== ==== Machines ouvertes en salle 3IP à accélérateur AMD ou Nvidia ====
  
   * **8 stations de travail ouvertes**   * **8 stations de travail ouvertes**
     * **fx9590** : processeur AMD FX9590 cadencé à 4715MHz ​     * **fx9590** : processeur AMD FX9590 cadencé à 4715MHz ​
-      * Nvidia Tesla C0160 avec 4GB +      * AMD Radeon R9-Fury 
-      * Nvidia Quadro FX4800 avec 2GB+      * AMD Radeon Nano
     * **kaveri** : processeur AMD Kaveri A10-7850     * **kaveri** : processeur AMD Kaveri A10-7850
       * AMD GPU d'un A10-7850       * AMD GPU d'un A10-7850
Ligne 139: Ligne 146:
       * AMD Radeon VII       * AMD Radeon VII
       * AMD Radeon Vega 64       * AMD Radeon Vega 64
-      * AMD Radeon Nano +
-    * **i9900ks** : processeur Intel i9-9900 KS +
-      * Nvidia RTX 2080Ti avec 12 Go +
-    * **ryzen3800** : processeur Ryzen 3800X +
-      * Nvidia RTX 2080Ti avec 12 Go +
-    * **phi7210** : processeur Xeon Phi 7210 +
-      * avec 64 coeurs et 256 threads+
   ​   ​
 Ces machines sont accessibles en salle 3IP et par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​ Ces machines sont accessibles en salle 3IP et par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​
Ligne 160: Ligne 161:
 {{ :​ressources:​cimg0039.jpg?​nolink&​200 |}} {{ :​ressources:​cimg0039.jpg?​nolink&​200 |}}
  
-  * **un cluster 64 bits** de 84 noeuds permanents et sa frontale +  * **un cluster 64 bits** de 156 noeuds permanents et sa frontale 
-    * accès par **lethe.cbp.ens-lyon.fr** avec soumission par [[ressources:​gridengine4cbp|GridEngine]]+    * accès par **cocyte.cbp.ens-lyon.fr** avec soumission par [[ressources:​slurm4cbp|Slurm]]
  
   * **24 stations d'​intégration :**   * **24 stations d'​intégration :**
Ligne 193: Ligne 194:
     * **p100gamma** : 2x Nvidia Tesla P100 avec 16GB     * **p100gamma** : 2x Nvidia Tesla P100 avec 16GB
     * **v100alpha** : Nvidia Tesla V100 avec 16GB     * **v100alpha** : Nvidia Tesla V100 avec 16GB
-    * **v100beta** : Nvidia Tesla V100 avec 16GB+    * <del>**v100beta** : Nvidia Tesla V100 avec 16GB</​del>​
  
 Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​ Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​
Ligne 201: Ligne 202:
   * **6 stations de travail "​ouvertes"​**   * **6 stations de travail "​ouvertes"​**
     * **openstation6** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD     * **openstation6** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD
-    * **openstation7** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD +    * **openstation7** : 1 RTX 2080 Super avec 8GB, 1 GTX 780 avec 3GB, espace de stockage de 4TB en SSHD 
-    * **openstation8** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD+    * **openstation8** : 1 RTX 2080 Super avec 8GB, 1 GTX 980 avec 8GB, espace de stockage de 4TB en SSHD
     * **openstation9** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD     * **openstation9** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD
   * **5 serveurs rackables**   * **5 serveurs rackables**
     * **r5400alpha** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1     * **r5400alpha** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1
     * **r5400beta** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1     * **r5400beta** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1
-    * **r720gpu1** : 2 Nvidia GTX 980 avec 8GB, espace de stockage de 29TB en Raid5 +    * **r720gpu1** : 2 Nvidia GTX 1080 Ti avec 8GB, espace de stockage de 13TB en Raid5 
-    * **rome4gpu** : 4 Nvidia RTX 2080 Super avec 8GB, expace ​de stockage de 3TB en Raid5+    * **r730server6** : 2 Nvidia RTX 2080 Ti avec 12GB, espace de stockage de 13TB en Raid5 
 +    * **r740gpu2** : 2 Nvidia A100 avec 40GB, espace de stockage de 6TB en Raid5 
 +    * **rome4gpu** : 4 Nvidia RTX 2080 Super avec 8GB, espace ​de stockage de 3TB en Raid5 
 +    * **epyc1** : 2 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 
 +    * **epyc2** : 2 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 
 +    * **epyc3** : 2 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 
 +    * **epyc4** : 2 Nvidia RTX 6000 Super avec 24GB, espace de stockage de 11TB en Raid5 
 +    * **c4140** : 2 Nvidia Tesla V100 Super avec 16GB, espace de stockage de 50TB en Raid5
  
 Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​ Ces machines sont accessibles par SSH et [[ressources:​x2go4cbp|x2go]] : ''<​nom>​.cbp.ens-lyon.fr''​
Ligne 238: Ligne 246:
 ==== Infrastructure SIDUS ==== ==== Infrastructure SIDUS ====
  
-L'​infrastructure [[developpement:​productions:​sidus|SIDUS]] pour //Single Instance Distributing Universal System// permet aux personnes de l'ENS qui le désirent de démarrer en quelques secondes un environnement scientifique complet, basé sur la dernière distribution stable de Debian, la Jessie ​à l'​heure actuelle. Cet environnement peut aussi bien démarrer sur une machine complète ou dans une machine virtuelle. Il y a 5 options possibles pour lancer cette version : +L'​infrastructure [[developpement:​productions:​sidus|SIDUS]] pour //Single Instance Distributing Universal System// permet aux personnes de l'ENS qui le désirent de démarrer en quelques secondes un environnement scientifique complet, basé sur la dernière distribution stable de Debian, la Bookworm ​à l'​heure actuelle. Cet environnement peut aussi bien démarrer sur une machine complète ou dans une machine virtuelle. Il y a 5 options possibles pour lancer cette version : 
-  * **Debian ​Stretch ​on x86_64 : default** pour l'​usage dans un environnement 64 bits, optimisé pour un environnement virtuel sous VirtualBox ; +  * **Debian ​Bookworm ​on x86_64 : default** pour l'​usage dans un environnement 64 bits, optimisé pour un environnement virtuel sous VirtualBox ; 
-  * **Debian ​Stretch on x86_64 : OverlayFS version** identique à la précédente,​ mais avec du OverlayFS à la place de AUFS +  * **Debian ​Bookworm ​on x86_64 : Nvidia Current** support propriétaire avec pilote & environnement le plus récent 
-  * **Debian Stretch ​on x86_64 : Nvidia Current** support propriétaire avec pilote & environnement le plus récent +  * **Debian ​Bookworm ​on x86_64 : Nvidia Screenless** support propriétaire avec pilote & environnement le plus récent, pour machines sans moniteur 
-  * **Debian ​Stretch ​on x86_64 : Nvidia Screenless** support propriétaire avec pilote & environnement le plus récent, pour machines sans moniteur +  * **Debian ​Bookworm ​on x86_64 : Nvidia ​470** support propriétaire avec pilote & environnement ​470.*, pour cartes graphiques anciennes (Kepler ​inclues) 
-  * **Debian ​Stretch ​on x86_64 : Nvidia ​340xx** support propriétaire avec pilote & environnement ​340.*, pour cartes graphiques anciennes (GT200 inclues) +  * **Debian ​Bookworm ​on x86_64 : Nvidia ​340xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques anciennes (GT200 inclues) 
-  * **Debian ​Stretch ​on x86_64 : Nvidia ​304xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques ​très anciennes (GT200 inclues) +  * **Debian ​Bookworm ​on x86_64 : AMDGPU Pro** support propriétaire avec pilote & environnement,​ pour cartes graphiques ​AMD récentes 
-  * **Debian ​Stretch ​on x86_64 : AMD/ATI** support propriétaire avec pilote & environnement,​ pour cartes graphiques AMD+  * **Debian Bookworm on x86_64 : AMDGPU** support propriétaire avec pilote & environnement,​ pour cartes graphiques AMD jusqu'​à Nano 
 +  * **Debian Bookworm on x86_64 : Radeon** support propriétaire avec pilote & environnement,​ pour cartes graphiques AMD jusqu'​à 295X2
  
  
ressources/ressources.1611501018.txt.gz · Dernière modification: 2021/01/24 16:10 par equemene