Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente Prochaine révision Les deux révisions suivantes | ||
ressources:ressources [2020/08/17 14:43] equemene [Équipements informatiques matériels] |
ressources:ressources [2022/09/17 02:31] equemene [Salle collaborative //Machine Learning// de 12+1 postes] |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
+ | ====== La nouveauté, le portail Cloud@CBP ====== | ||
+ | |||
+ | Pour simplifier l'accès aux ressources du Centre Blaise Pascal, le portail **[[https://www.cbp.ens-lyon.fr/python/forms/CloudCBP|Cloud@CBP]]** permet de **visualiser** et **sélectionner** les ressources disponibles. | ||
+ | |||
+ | Les ressources disponibles sont alors facilement accessibles via SSH ou [[ressources:x2go4cbp|x2go]]. | ||
+ | |||
+ | |||
+ | |||
====== Une utilisation toujours croissante ====== | ====== Une utilisation toujours croissante ====== | ||
Ligne 7: | Ligne 15: | ||
Maintenant, le Centre Blaise Pascal dispose d'un ensemble de [[developpement:productions:plateaux|plateaux techniques]] destinés à la formation, l'étude (de l'expérience au prototypage), le développement ou la qualification dans tous les segments de l'informatique scientifique : | Maintenant, le Centre Blaise Pascal dispose d'un ensemble de [[developpement:productions:plateaux|plateaux techniques]] destinés à la formation, l'étude (de l'expérience au prototypage), le développement ou la qualification dans tous les segments de l'informatique scientifique : | ||
- | * plateau multi-noeuds : 116 noeuds de cluster v20z, x2200, x41z, x4500, r410, sl230 et c6100 totalisant presque 1000 coeurs | + | * plateau multi-noeuds : 2 clusters de 64 noeuds r410 et r422, 1 cluster de 16 noeuds c6100, 1 cluster de 12 noeuds s9200 |
- | * plateau multi-coeurs : 116 noeuds de cluster, 60 stations de travail de 2 à 64 coeurs | + | * plateau multi-coeurs : près de 250 machines disposant de 2 à 128 coeurs physiques dans 48 modèles différents |
- | * plateau GPU : 4 noeuds de cluster de prêt et 60 stations de travail. avec 70 GPU différents | + | * plateau GPU : plus de 100 machines offrant plus de 135 GPU de 67 modèles différents |
- | * plateau [[recherche:projets:ahn|Atelier en Humanités Numériques]] | + | |
* plateau "intégration logicielle" : distributions Debian, Ubuntu, CentOS | * plateau "intégration logicielle" : distributions Debian, Ubuntu, CentOS | ||
* plateau "intégration matérielle" : Sparc 32, PowerPC, ARM (sur demande) | * plateau "intégration matérielle" : Sparc 32, PowerPC, ARM (sur demande) | ||
* plateau "Visualisation 3D" : 2 stations, 4 paires de lunettes, 2 vidéoprojecteurs | * plateau "Visualisation 3D" : 2 stations, 4 paires de lunettes, 2 vidéoprojecteurs | ||
* plateau COMOD : "Compute On My Own Device" | * plateau COMOD : "Compute On My Own Device" | ||
- | * plateau [[http://galaxy2.cbp.ens-lyon.fr|Galaxy]] | + | * plateau Galaxy externe [[http://diet.ens-lyon.fr|Diet]] |
+ | * plateau Galaxy interne [[http://galaxy3.cbp.ens-lyon.fr|Galaxy3]] | ||
* plateau pour les ateliers [[animation:projets:3ip|3IP pour "Introduction Inductive à l'Informatique et au Parallélisme"]] | * plateau pour les ateliers [[animation:projets:3ip|3IP pour "Introduction Inductive à l'Informatique et au Parallélisme"]] | ||
+ | |||
+ | Pour simplifier l'accès à la majorité de ces machines, le portail [[https://www.cbp.ens-lyon.fr/python/forms/CloudCBP|Cloud@CBP]] existe : il permet | ||
+ | * de visualiser les ressources disponibles | ||
+ | * de sélectionner un type de machine en fonction de ses ressources | ||
Ces plateaux reposent essentiellement sur : | Ces plateaux reposent essentiellement sur : | ||
Ligne 26: | Ligne 38: | ||
L'[[gridengine4cbp|utilisation]] des clusters (plateaux multi-noeuds & multi-coeurs) se base sur GridEngine. | L'[[gridengine4cbp|utilisation]] des clusters (plateaux multi-noeuds & multi-coeurs) se base sur GridEngine. | ||
+ | ====== Espaces de stockage du CBP ====== | ||
+ | |||
+ | L'utilisateur dispose sur les machines **[[https://www.cbp.ens-lyon.fr/python/forms/CloudCBP|Cloud@CBP]]** de 6 espaces de stockage : | ||
+ | * son compte utilisateur **$HOME** : **partagé entre les machines**. Chaque utilisateur dispose d'un quota de **20 GB**. Il ne doit pas être trop sollicité pour des calculs nécessitant de gros transferts. Un archivage (permettant de revenir sur l'état du volume dans le passé) est réalisé chaque nuit. | ||
+ | * l'espace temporaire **/tmp** : ce dossier est en mémoire vive. Rapide, il est raisonnable de ne pas trop le solliciter pour les gros volumes. Une fois la mémoire vive remplie, des dysfonctionnements peuvent apparaître. | ||
+ | * l'espace local **/local** : ce dossier correspond à un disque dur interne, d'un volume de **500 GB** à **50 TB**. La vitesse d'accès est d'une centaine de MB/s. Il n'est ni partagé, ni sauvegardé. Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /local/$USER'' | ||
+ | * l'espace vrac **/scratch** : **partagé entre les machines**, de **120 TB**, ni archivé, ni sauvegardé. Il dispose d'un accès rapide (autour de 100 MB/s) sur le réseau de la salle et très rapide (autour de 300 MB/s) sur le réseau du cluster. Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /scratch/$USER'' | ||
+ | * l'espace vrac récent **/distonet**: **partagé entre les machines**, de **120 TB**, ni archivé mais sauvegardé. Il dispose d'un accès rapide sur le réseau de la salle (autour de 100 MB/s) et très très rapide sur le réseau du cluster (autour de 2 GB/s). Ne JAMAIS l'exploiter pour des traitements générant ou traitant au delà de 10000 fichiers ! Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /distonet/$USER'' | ||
+ | * l'espace projets **/projects**: **partagé entre les machines**, de **12 TB**, archivé mais non sauvegardé. C'est un espace collaboratif. Il dispose d'un accès rapide sur le réseau de la salle et sur le réseau du cluster. Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /projects/users/$USER'' | ||
+ | |||
+ | <note important>La règle la plus importante pour le stockage est : "On ne travaille PAS dans son $HOME"</note> | ||
+ | |||
====== Infrastructure logicielle cohérente ====== | ====== Infrastructure logicielle cohérente ====== | ||
Ligne 48: | Ligne 72: | ||
====== Équipements informatiques matériels ====== | ====== Équipements informatiques matériels ====== | ||
- | <note tip>Les équipements suivants forment le [[https://www.cbp.ens-lyon.fr/python/forms/CloudCBP|**Cloud@CBP**]] : presque 70 machines directement accessibles avec le même environnement</note> | + | <note tip>Les équipements suivants forment le **[[https://www.cbp.ens-lyon.fr/python/forms/CloudCBP|Cloud@CBP]]** : plus de 100 machines directement accessibles avec le même environnement</note> |
==== Équipements généraux ==== | ==== Équipements généraux ==== | ||
Ligne 55: | Ligne 79: | ||
* 8 serveurs de fichiers | * 8 serveurs de fichiers | ||
- | ==== Salle informatique de 28 postes ==== | + | ==== Salle informatique de 24 postes ==== |
La salle informatique M7-1H04 de travaux pratiques comprend : | La salle informatique M7-1H04 de travaux pratiques comprend : | ||
* **12 stations de travail Precision T5600** avec E5-2620 et 32/64 Go | * **12 stations de travail Precision T5600** avec E5-2620 et 32/64 Go | ||
Ligne 86: | Ligne 111: | ||
* **o790alpha** : Nvidia NVS 315 avec 1Go | * **o790alpha** : Nvidia NVS 315 avec 1Go | ||
* **o790beta** : Nvidia GT620 avec 1Go | * **o790beta** : Nvidia GT620 avec 1Go | ||
- | * **4 postes de travail Optiplex 760** : 8Go | ||
- | * **o760alpha** : Nvidia GT 620 avec 1Go, Intel Q6600 | ||
- | * **o760beta** : Nvidia GT 620 avec 1Go, Intel E7500 | ||
- | * **o760gamma** : Nvidia GT 430 avec 1Go, Intel E5200 | ||
- | * **o760delta** : Nvidia GT 620 avec 1Go, Intel E5400 | ||
Ces machines sont accessibles par SSH ou x2go : ''<nom>.cbp.ens-lyon.fr'' | Ces machines sont accessibles par SSH ou x2go : ''<nom>.cbp.ens-lyon.fr'' | ||
- | Une vision d'ensemble de l'[[http://styx.cbp.ens-lyon.fr/ganglia/?r=hour&c=Workstations|état des stations de travail]] sous [[developpement:productions:sidus4stretch|SIDUS]] est accessible seulement de l'intérieur de l'ENS-Lyon. | + | Une vision d'ensemble de l'[[http://www.cbp.ens-lyon.fr/python/forms/CloudCBP|état des stations de travail]] sous [[developpement:productions:sidus|SIDUS]]. |
- | L'utilisateur dispose sur ces machines de 6 espaces de stockage : | + | ==== Salle collaborative Machine Learning de 12+1 postes ==== |
- | * son compte utilisateur ''$HOME'' : monté en NFS, il ne doit pas être trop sollicité pour des calculs nécessitant de gros transferts. Un archivage (permettant de revenir sur l'état du volume dans le passé) est réalisé chaque nuit. | + | |
- | * l'espace temporaire ''/tmp'' : ce dossier est en mémoire vive. Rapide, il est raisonnable de ne pas trop le solliciter pour les gros volumes. Une fois la mémoire vive remplie, des dysfonctionnements peuvent apparaître. | + | |
- | * l'espace local ''/local'' : ce dossier correspond à un disque dur interne. La vitesse d'accès est d'une centaine de MB/s. Il n'est ni partagé, ni sauvegardé. Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /local/$USER'' | + | |
- | * l'espace vrac ancien ''/scratch'': ce dossier, partagé mais non sauvegardé entre toutes les machines, dispose d'un accès rapide sur le réseau de la salle et très rapide sur le réseau du cluster. Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /scratch/$USER'' | + | |
- | * l'espace vrac récent ''/distonet'': ce dossier, partagé mais non sauvegardé entre toutes les machines, dispose d'un accès rapide sur le réseau de la salle et très rapide sur le réseau du cluster. Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /distonet/$USER'' | + | |
- | * l'espace projets ''/projects'': ce dossier, archivé mais non sauvegardé entre toutes les machines, dispose d'un accès rapide sur le réseau de la salle et sur le réseau du cluster. Pour l'exploiter, créer un dossier correspondant à son identifiant : ''mkdir /projects/users/$USER'' | + | |
- | <note important>La règle la plus importante pour le stockage est : "On ne travaille PAS dans son $HOME"</note> | + | La salle collaborative M7-1H19 de travaux pratiques comprend : |
+ | * **12 stations de travail Optiplex 790** avec Intel i3-2120 et 16 Go | ||
+ | * **mla1** : Nvidia T1000 avec 8 Go | ||
+ | * **mla2** : Nvidia T400 avec 4 Go | ||
+ | * **mla3** : Nvidia T400 avec 4 Go | ||
+ | * **mla4** : Nvidia GTX 1650 avec 4 Go | ||
+ | * **mlb1** : Nvidia RTX A2000 avec 12 Go | ||
+ | * **mlb2** : Nvidia GTX 750Ti avec 2 Go | ||
+ | * **mlb3** : Nvidia GT 1030 avec 2 Go | ||
+ | * **mlb4** : Nvidia T1000 avec 8 Go | ||
+ | * **mlc1** : Nvidia GTX 1650 avec 8 Go | ||
+ | * **mlc2** : Nvidia GT 1030 avec 2 Go | ||
+ | * **mlc3** : Nvidia RTX A2000 avec 12 Go | ||
+ | * **mlc4** : Nvidia T400 avec 4 Go | ||
+ | * **1 station** pour le professeur avec Intel i7-10700 et 64 Go | ||
+ | * **mld** : Nvidia P2200 avec 5 Go | ||
+ | Ces machines sont accessibles par SSH ou x2go : ''<nom>.cbp.ens-lyon.fr'' | ||
+ | |||
+ | Une vision d'ensemble de l'[[http://www.cbp.ens-lyon.fr/python/forms/CloudCBP|état des stations de travail]] sous [[developpement:productions:sidus|SIDUS]]. | ||
==== Machines ouvertes en salle 3IP à accélérateur AMD ou Nvidia ==== | ==== Machines ouvertes en salle 3IP à accélérateur AMD ou Nvidia ==== | ||
* **8 stations de travail ouvertes** | * **8 stations de travail ouvertes** | ||
* **fx9590** : processeur AMD FX9590 cadencé à 4715MHz | * **fx9590** : processeur AMD FX9590 cadencé à 4715MHz | ||
- | * Nvidia Tesla C0160 avec 4GB | + | * AMD Radeon R9-Fury |
- | * Nvidia Quadro FX4800 avec 2GB | + | * AMD Radeon Nano |
* **kaveri** : processeur AMD Kaveri A10-7850 | * **kaveri** : processeur AMD Kaveri A10-7850 | ||
* AMD GPU d'un A10-7850 | * AMD GPU d'un A10-7850 | ||
Ligne 125: | Ligne 157: | ||
* AMD Radeon VII | * AMD Radeon VII | ||
* AMD Radeon Vega 64 | * AMD Radeon Vega 64 | ||
- | * AMD Radeon Nano | + | |
- | * **i9900ks** : processeur Intel i9-9900 KS | + | |
- | * Nvidia RTX 2080Ti avec 12 Go | + | |
- | * **ryzen3800** : processeur Ryzen 3800X | + | |
- | * Nvidia RTX 2080Ti avec 12 Go | + | |
- | * **phi7210** : processeur Xeon Phi 7210 | + | |
- | * avec 64 coeurs et 256 threads | + | |
| | ||
Ces machines sont accessibles en salle 3IP et par SSH et [[ressources:x2go4cbp|x2go]] : ''<nom>.cbp.ens-lyon.fr'' | Ces machines sont accessibles en salle 3IP et par SSH et [[ressources:x2go4cbp|x2go]] : ''<nom>.cbp.ens-lyon.fr'' | ||
Ligne 179: | Ligne 205: | ||
* **p100gamma** : 2x Nvidia Tesla P100 avec 16GB | * **p100gamma** : 2x Nvidia Tesla P100 avec 16GB | ||
* **v100alpha** : Nvidia Tesla V100 avec 16GB | * **v100alpha** : Nvidia Tesla V100 avec 16GB | ||
- | * **v100beta** : Nvidia Tesla V100 avec 16GB | + | * <del>**v100beta** : Nvidia Tesla V100 avec 16GB</del> |
Ces machines sont accessibles par SSH et [[ressources:x2go4cbp|x2go]] : ''<nom>.cbp.ens-lyon.fr'' | Ces machines sont accessibles par SSH et [[ressources:x2go4cbp|x2go]] : ''<nom>.cbp.ens-lyon.fr'' | ||
Ligne 187: | Ligne 213: | ||
* **6 stations de travail "ouvertes"** | * **6 stations de travail "ouvertes"** | ||
* **openstation6** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD | * **openstation6** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD | ||
- | * **openstation7** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD | + | * **openstation7** : 1 RTX 2080 Super avec 8GB, 1 GTX 780 avec 3GB, espace de stockage de 4TB en SSHD |
- | * **openstation8** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD | + | * **openstation8** : 1 RTX 2080 Super avec 8GB, 1 GTX 980 avec 8GB, espace de stockage de 4TB en SSHD |
* **openstation9** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD | * **openstation9** : 1 RTX 2080 Super avec 8GB, 1 GTX 1080 avec 8GB, espace de stockage de 4TB en SSHD | ||
- | * **openstation5** : 1 Nvidia GTX 780 avec 3GB, espace de stockage de 4TB en SSHD | + | * **5 serveurs rackables** |
- | * **openstation4** : 1 Nvidia GTX 780 avec 3GB, espace de stockage de 4TB | + | |
- | * **5 stations rackables** | + | |
* **r5400alpha** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1 | * **r5400alpha** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1 | ||
* **r5400beta** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1 | * **r5400beta** : Nvidia GTX 1080 avec 8GB, espace de stockage de 1TB en Raid1 | ||
- | * **rome4gpu** : 4 Nvidia RTX 2080 Super avec 8GB, expace de stockage de 3TB en Raid5 | + | * **r720gpu1** : 2 Nvidia GTX 1080 Ti avec 8GB, espace de stockage de 13TB en Raid5 |
- | * **epyc1** : Nvidia RTX 2080 avec 8GB, espace de stockage de 10TB en Raid5 | + | * **r730server6** : 2 Nvidia RTX 2080 Ti avec 12GB, espace de stockage de 13TB en Raid5 |
- | * **epyc2** : Nvidia RTX 2080 avec 8GB, espace de stockage de 10TB en Raid5 | + | * **r740gpu2** : 2 Nvidia A100 avec 40GB, espace de stockage de 6TB en Raid5 |
+ | * **rome4gpu** : 4 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 3TB en Raid5 | ||
+ | * **epyc1** : 2 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 | ||
+ | * **epyc2** : 2 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 | ||
+ | * **epyc3** : 2 Nvidia RTX 2080 Super avec 8GB, espace de stockage de 11TB en Raid5 | ||
+ | * **epyc4** : 2 Nvidia RTX 6000 Super avec 24GB, espace de stockage de 11TB en Raid5 | ||
+ | * **c4140** : 2 Nvidia Tesla V100 Super avec 16GB, espace de stockage de 50TB en Raid5 | ||
Ces machines sont accessibles par SSH et [[ressources:x2go4cbp|x2go]] : ''<nom>.cbp.ens-lyon.fr'' | Ces machines sont accessibles par SSH et [[ressources:x2go4cbp|x2go]] : ''<nom>.cbp.ens-lyon.fr'' | ||
+ | ==== Serveurs "historiques" et récents, multicoeurs ==== | ||
+ | * **14 serveurs "historiques"** | ||
+ | * **v20z1** : serveur SunFire v20z bisocket, 2 coeurs, avec 16GB de RAM et 70GB de **/local** | ||
+ | * **v20z2** : serveur SunFire v20z bisocket, 2 coeurs, avec 16GB de RAM et 70GB de **/local** | ||
+ | * **x2200node1** : serveur SunFire x2200 4 coeurs, avec 32GB de RAM et 500GB de **/local** | ||
+ | * **x2200node2** : serveur SunFire x2200 4 coeurs, avec 32GB de RAM et 500GB de **/local** | ||
+ | * **x4500node3** : serveur SunFire x4500 2 coeurs, avec 16GB de RAM et 20TB de **/local** | ||
+ | * **x4500node4** : serveur SunFire x4500 2 coeurs, avec 16GB de RAM et 20TB de **/local** | ||
+ | * **sl165node1** : serveur HP DL165 bisocket, 12 coeurs, avec 32GB de RAM et aucun espace **/local** | ||
+ | * **sl165node2** : serveur HP DL165 bisocket, 12 coeurs, avec 32GB de RAM et aucun espace **/local** | ||
+ | * **r815node1** : serveur Dell R815 32 coeurs, aucun espace de **/local** | ||
+ | * **r815node2** : serveur Dell R815 32 coeurs, aucun espace de **/local** | ||
+ | * **r815node3** : serveur Dell R815 32 coeurs, aucun espace de **/local** | ||
+ | * **r815node4** : serveur Dell R815 32 coeurs, aucun espace de **/local** | ||
+ | * **r815cores32** : serveur Dell R815 32 coeurs, 2TB de **/local** | ||
+ | * **r815cores48** : serveur Dell R815 48 coeurs, 4TB de **/local** | ||
+ | * **6 serveurs récents** | ||
+ | * **apollo192g1** : serveur HPE avec 32 coeurs, 192GB de RAM, 2TB de **/local** | ||
+ | * **apollo192g2** : serveur HPE avec 32 coeurs, 192GB de RAM, 4TB de **/local** | ||
+ | * **apollo1024g** : serveur HPE avec 32 coeurs, 1TB de DCPMM, 2TB de **/local** | ||
+ | * **apollo2048g** : serveur HPE avec 32 coeurs, 2TB de DCPMM, 15TB de **/local** | ||
+ | * **epyc1** : serveur Supermicro avec 64 coeurs, 11TB de **/local** | ||
+ | * **epyc2** : serveur Supermicro avec 128 coeurs, 11TB de **/local** | ||
==== Infrastructure SIDUS ==== | ==== Infrastructure SIDUS ==== | ||
- | L'infrastructure [[developpement:productions:sidus|SIDUS]] pour //Single Instance Distributing Universal System// permet aux personnes de l'ENS qui le désirent de démarrer en quelques secondes un environnement scientifique complet, basé sur la dernière distribution stable de Debian, la Jessie à l'heure actuelle. Cet environnement peut aussi bien démarrer sur une machine complète ou dans une machine virtuelle. Il y a 5 options possibles pour lancer cette version : | + | L'infrastructure [[developpement:productions:sidus|SIDUS]] pour //Single Instance Distributing Universal System// permet aux personnes de l'ENS qui le désirent de démarrer en quelques secondes un environnement scientifique complet, basé sur la dernière distribution stable de Debian, la Bullseye à l'heure actuelle. Cet environnement peut aussi bien démarrer sur une machine complète ou dans une machine virtuelle. Il y a 5 options possibles pour lancer cette version : |
- | * **Debian Stretch on x86_64 : default** pour l'usage dans un environnement 64 bits, optimisé pour un environnement virtuel sous VirtualBox ; | + | * **Debian Bullseye on x86_64 : default** pour l'usage dans un environnement 64 bits, optimisé pour un environnement virtuel sous VirtualBox ; |
- | * **Debian Stretch on x86_64 : OverlayFS version** identique à la précédente, mais avec du OverlayFS à la place de AUFS | + | * **Debian Bullseye on x86_64 : Nvidia Current** support propriétaire avec pilote & environnement le plus récent |
- | * **Debian Stretch on x86_64 : Nvidia Current** support propriétaire avec pilote & environnement le plus récent | + | * **Debian Bullseye on x86_64 : Nvidia Screenless** support propriétaire avec pilote & environnement le plus récent, pour machines sans moniteur |
- | * **Debian Stretch on x86_64 : Nvidia Screenless** support propriétaire avec pilote & environnement le plus récent, pour machines sans moniteur | + | * **Debian Bullseye on x86_64 : Nvidia 390xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques anciennes (GT200 inclues) |
- | * **Debian Stretch on x86_64 : Nvidia 340xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques anciennes (GT200 inclues) | + | * **Debian Bullseye on x86_64 : Nvidia 340xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques anciennes (GT200 inclues) |
- | * **Debian Stretch on x86_64 : Nvidia 304xx** support propriétaire avec pilote & environnement 340.*, pour cartes graphiques très anciennes (GT200 inclues) | + | * **Debian Bullseye on x86_64 : AMDGPU Pro** support propriétaire avec pilote & environnement, pour cartes graphiques AMD récentes |
- | * **Debian Stretch on x86_64 : AMD/ATI** support propriétaire avec pilote & environnement, pour cartes graphiques AMD | + | * **Debian Bullseye on x86_64 : AMDGPU** support propriétaire avec pilote & environnement, pour cartes graphiques AMD jusqu'à Nano |
+ | * **Debian Bullseye on x86_64 : Radeon** support propriétaire avec pilote & environnement, pour cartes graphiques AMD jusqu'à 295X2 | ||