Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
formation:gpu4cbp [2023/03/10 11:05]
equemene [Comparaison de toutes les implémentations : victoire incontestée de OpenCL]
formation:gpu4cbp [2024/02/22 11:47] (Version actuelle)
equemene [Récupération des sources]
Ligne 359: Ligne 359:
 svn checkout https://​forge.cbp.ens-lyon.fr/​svn/​bench4gpu/​ svn checkout https://​forge.cbp.ens-lyon.fr/​svn/​bench4gpu/​
 </​code>​ </​code>​
 +
 +Si l'​accès par subversion c'est pas possible, voici une version //tarball// de l'​ensemble de l'​archive : [[https://​www.cbp.ens-lyon.fr/​emmanuel.quemener/​documents/​bench4gpu.tgz|bench4gpu.tgz]]
  
 Dans ce dossier ''​bench4gpu'',​ il y a plusieurs dossiers : Dans ce dossier ''​bench4gpu'',​ il y a plusieurs dossiers :
Ligne 741: Ligne 743:
   - la OpenACC reste supérieure aux implémentations OpenCL/CPU et OpenCL/GPU d'un facteur 3   - la OpenACC reste supérieure aux implémentations OpenCL/CPU et OpenCL/GPU d'un facteur 3
  
-Se contenter uniquement de ce test inviterait à fuire Python/​OpenCL. Cependant, nous avons vu dans sur ''​MySteps_2.py''​ que la charge calculatoire doit être "vraiement" significative pour que le Python/​OpenCL l'​emporte de manière significative. Nous reviendrons donc dans la suite sur des versions modifiées de ces programmes C intégrant la fonction de Mylq ''​MySillyFunction'',​ appelée plusieurs fois, pour juger si "​vraiment" ​Python/​OpenCL reste compétitif face à OpenMP et OpenACC.+Se contenter uniquement de ce test inviterait à fuire Python/​OpenCL. Cependant, nous avons vu dans sur ''​MySteps_2.py''​ que la charge calculatoire doit être "vraiment" significative pour que le Python/​OpenCL l'​emporte de manière significative. Nous reviendrons donc dans la suite sur des versions modifiées de ces programmes C intégrant la fonction de Mylq ''​MySillyFunction'',​ appelée plusieurs fois, pour juger si Python/​OpenCL reste compétitif face à OpenMP et OpenACC.
 ===== Un intermède CUDA et son implémentation PyCUDA ===== ===== Un intermède CUDA et son implémentation PyCUDA =====
  
Ligne 872: Ligne 874:
   * ''​MySteps_6_openmp.c''​ : implémentation OpenMP en C   * ''​MySteps_6_openmp.c''​ : implémentation OpenMP en C
   * ''​MySteps_6_openacc.c''​ : implémentation OpenACC en C   * ''​MySteps_6_openacc.c''​ : implémentation OpenACC en C
-  * ''​MySteps_6.py''​ : implémentations Numpy native, OpenCL et CUDA en Python+  * ''​MySteps_6.py''​ : implémentations Numpy, OpenCL et CUDA en Python
  
 Les trois implémentations en C ont comme argument la taille et le nombre d'​applications de la fonction de Mylq. Les trois implémentations en C ont comme argument la taille et le nombre d'​applications de la fonction de Mylq.
Ligne 885: Ligne 887:
   * ''​-n''​ la suspension de l'​exécution en "mode natif"   * ''​-n''​ la suspension de l'​exécution en "mode natif"
  
-Ainsi, pour une exécution sur une machine disposant d'un GPU avec 6GB de RAM, l'​exécution de ''​./​MySteps_6.py -d 0 -g OpenCL -s $((2**25)) -c 10'' ​donne :<​code>​+Ainsi, pour une exécution sur une machine disposant d'un GPU avec 6GB de RAM, l'​exécution de <​code>​./​MySteps_6.py -d 0 -g OpenCL -s $((2**25)) -c 10</​code> ​donne :<​code>​
 Device Selection : 0 Device Selection : 0
 GpuStyle used : OpenCL GpuStyle used : OpenCL
Ligne 914: Ligne 916:
 </​code>​ </​code>​
  
-Ainsi, dans cette machine, l'​exécution Python/​OpenCL est 271 fois plus rapide sur le GPU qu'en Python natif. Si nous désirons "​rester"​ sur le CPU, les résultats sont aussi éloquents. L'​exécution de ''​./​MySteps_6.py -d 4 -g OpenCL -s $((2**25)) -c 10'' ​sur son processeur ​assez ancien ​ne disposant que de 6 coeurs : <​code> ​+Ainsi, dans cette machine, l'​exécution Python/​OpenCL est 271 fois plus rapide sur le GPU qu'en Python natif. Si nous désirons "​rester"​ sur le CPU, les résultats sont aussi éloquents. ​ 
 + 
 +La version CUDA appelée par <​code>​./​MySteps_6.py -d 0 -g CUDA -s $((2**25)) -c 10 -t 32</​code>​ donne :<​code>​ 
 +Device Selection : 0 
 +GpuStyle used : CUDA 
 +Size of complex vector : 33554432 
 +Number of silly calls : 10 
 +Number of Threads : 32 
 +Serial compute : 1 
 +Device #0 of type GPU : NVIDIA GeForce GTX TITAN 
 +Device #1 of type GPU : Quadro K420 
 +NativeRate: 130602 
 +Definition of kernel : 1.646 
 +Synthesis of kernel : 0.000 
 +Allocation on Host for results : 0.041 
 +Execution of kernel : 0.869 
 +Execution of kernel : 0.869 
 +CUDARate: 12511868 
 +[ 0.0000000e+00 ​ 3.5762787e-07 -5.9604645e-07 ...  2.9802322e-06 
 +  5.9604645e-07 ​ 7.1525574e-07] 
 +0.016533133 
 +Results between Native & CUDA seem to be too different! 
 +CUDAvsNative ratio: 95.801504</​code>​ 
 + 
 +L'​exécution de de <​code>​./​MySteps_6.py -d 4 -g OpenCL -s $((2**25)) -c 10</​code> ​sur sa CPU assez ancienne ​ne disposant que de 6 coeurs ​ ​donne ​: <​code> ​
 Device Selection : 4 Device Selection : 4
 GpuStyle used : OpenCL GpuStyle used : OpenCL
Ligne 945: Ligne 971:
 </​code>​ </​code>​
  
-Pour une exécution en C, sérielle, OpenMP et OpenACC, nous avons :+Pour une exécution en OpenMP et OpenACC avec les mêmes argumentsnous avons : 
 +  * en OpenMP : <​code>​ 
 +33554432 10 
 +Norm: 0.00000000e+00 
 +Elapsed Time: 418.251 
 +OMP Elapsed Time: 47.402 
 +NativeRate: 80225 
 +OMPRate: 707876 
 +AccRatio: 8.824</​code>​ 
 +  * en OpenACC : <​code>​ 
 +33554432 10 
 +Norm: 0.00000000e+00 
 +Elapsed Time: 416.558 
 +OpenACC Elapsed Time: 12.511 
 +NativeRate: 80551 
 +OpenACCRate:​ 2681906 
 +ACCRatio: 33.294 
 +</​code>​ 
 + 
 +Ainsi, pour une charge calculatoire de 321 fonctions arithmétiques sur chaque élément du tableau (10x la fonction de Mylq sur chaque élément et l'​addition finale) : 
 +  * Python/​Numpy est presque 2x plus rapide que la C sérielle 
 +  * Python/​OpenCL/​GPU est 8x plus rapide que la C/OpenACC271x plus rapide que la Python Numpy 
 +  * Python/​CUDA/​GPU est 3x plus rapide que la C/OpenACC, 10x plus rapide que la Python Numpy 
 +  * Python/​OpenCL/​CPU est presque 3x plus rapide que la C/OpenMP, 23x plus rapide que le Python Numpy 
 + 
 +Si nous augmentons la charge individuelle de chaque addition, nous augmentons de manière très significative l'​accéleration de calcul via OpenCL. Pour la configuration matérielle ci-dessus, l'​accélération frise avec les 1000 pour le GPU et les 23 pour le CPU, en sollicitant 1000 fois la fonction de Mylq (soit 32001 opérations pour chaque somme). 
 + 
 +Le tableau suivant montre, pour les 7 implémentations,​ le gain face à l'​implémentation native Python : 
 +^  Silly Calls  ^  C/​Serial ​ ^  C/​OpenMP ​ ^  C/OpenACC ​ ​^ ​ PyCL CPU  ^  PyCL GPU  ^  PyCUDA 32T  ^ 
 +^  0|  3.89|  9.39|  1.45|  0.82|  0.60|  0.57| 
 +^  1|  0.40|  4.82|  12.95| ​ 15.40| ​ 56.43| ​ 46.08| 
 +^  10|  0.46|  4.69|  15.96| ​ 20.30| ​ 393.72| ​ 190.89| 
 +^  100|  0.54|  5.18|  17.97| ​ 23.24| ​ 904.59| ​ 294.82| 
 +^  1000|  0.52|  5.10|  17.30| ​ 22.40| ​ 967.09| ​ 290.60| 
 + 
 +Pour obtenir de tels gains, nous avons la conjonction des 2 facteurs : l'​exploitation massive de tous les //​cudacores//​ (les ALU de la GPU) et l'​utilisation de toute la bande passante mémoire de la GPU (10x supérieure généralement à la bande passante mémoire). 
 + 
 +L'​objectif de cette partie TP est donc de retrouver, par soi-même, les facteurs d'​accélération de OpenCL pour des charges croissantes par l'​application de 0, 1, 10, 100, 1000 fois la fonction de Mylq. 
 + 
 +La difficulté viendra du temps d'​exécution de la version séquentielle qui atteint son pallier de performances pour une taille croissante de vecteurs assez rapidement et du choix judicieux de l'​inhibition de l'​exécution séquentielle pour permettre d'​atteindre des tailles de vecteurs significatives. 
 + 
 +<note warning>​**Exercice #4.1 : exécution des différentes implémentations** 
 +  - Compilez ''​MySteps_6.c''​ en ''​MySteps_6''​ 
 +  - Compilez ''​MySteps_6_openmp.c''​ en ''​MySteps_6_openmp''​  
 +  - Compilez ''​MySteps_6_openacc.c''​ en ''​MySteps_6_openacc''​ 
 +  - Compilez ''​MySteps_6_openmp.c''​ en ''​MySteps_6_openmp_NoSerial'',​ sans exécution séquentielle  
 +  - Compilez ''​MySteps_6_openacc.c''​ en ''​MySteps_6_openacc_NoSerial'',​ sans exécution séquentielle 
 +  - Exécutez ''​MySteps_6''​ sur des tailles de 32768 et 65536, pour les différentes charges ci-dessus 
 +  - Relevez les **NativeRate** pour les différentes charges : que constatez vous ? 
 +  - Exécutez ''​MySteps_6_openmp''​ sur des tailles de 32768 et 65536, pour les mêmes charges 
 +  - Relevez les **NativeRate**,​ **OMPRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6_openacc''​ sur des tailles de 32768 et 65536, pour les mêmes charges 
 +  - Relevez les **NativeRate**,​ **ACCRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL/CPU avec l'​Intel sur des tailles de 32768 et 65536 
 +  - Relevez les **NativeRate**,​ **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL/GPU sur le plus gros GPU sur des tailles de 32768 et 65536 
 +  - Relevez les **NativeRate**,​ **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en CUDA/GPU sur le plus gros GPU sur des tailles de 32768 et 65536 
 +  - Relevez les **NativeRate**,​ **CUDARate** pour les différentes charges  
 +  - Placez dans un tableau les différentes valeurs : que constatez-vous ? 
 +  - Exécutez ''​MySteps_6_openmp_NoSerial''​ sur des tailles de 1048576 et 2097152, pour les mêmes charges 
 +  - Relevez **OMPRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6_openacc_NoSerial''​ sur des tailles de 1048576 et 2097152, pour les mêmes charges 
 +  - Relevez **ACCRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL Intel sur des tailles de 1048576 et 2097152, avec l'​option ''​-n''​ 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en CUDA/GPU sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **CUDARate** pour les différentes charges  
 +  - Placez dans un tableau les différentes valeurs : que constatez-vous comme gain en performance en OpenCL ? 
 +</​note>​ 
 + 
 +Vous pouvez juger, du fait de lancement pour des tailles doublées, et pour les différentes charges, que vous avez obtenu des optimums pour certaines implémentations,​ mais pas encore pour d'​autres,​ notamment OpenCL et CUDA.  
 + 
 +Si la performance pour une taille de 2097152 est moins de 5% supérieure à la performance pour une taille de 1048576, vous pouvez considérer que vous avez atteint le quasi-optimum de performance. L'​objectif est d'​atteindre cette limite. 
 + 
 +<note warning>​**Exercice #4.2 : exploration de la meilleure performance OpenCL et CUDA** 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL Intel sur des tailles croissantes avec l'​option ''​-n''​ 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en CUDA/GPU sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **CUDARate** pour les différentes charges  
 +  - Placez dans un tableau les différentes valeurs ​que constatez-vous comme gain en performance en OpenCL ? 
 +</​note>​ 
  
 ===== Implémenter une fonction "​coûteuse",​ la Transformée de Fourier ===== ===== Implémenter une fonction "​coûteuse",​ la Transformée de Fourier =====
Ligne 981: Ligne 1093:
 Il sera alors possible d'​estimer l'​erreur numérique à ce calcul. Il sera alors possible d'​estimer l'​erreur numérique à ce calcul.
  
-<note warning>​**Exercice #4.1 : implémentation Python "​naïve"​**+<note warning>​**Exercice #5.1 : implémentation Python "​naïve"​**
   - Modifiez ''​MyDFT_1.py''​ suivant les 7 spécifications ci-dessus   - Modifiez ''​MyDFT_1.py''​ suivant les 7 spécifications ci-dessus
   - Exécutez le programme pour une taille de **16** et contrôler la cohérence   - Exécutez le programme pour une taille de **16** et contrôler la cohérence
Ligne 1014: Ligne 1126:
   - comparer les résultats entre les deux avec ''​linalg.norm''​   - comparer les résultats entre les deux avec ''​linalg.norm''​
  
-<note warning>​**Exercice #4.2 : implémentation Python Numpy**+<note warning>​**Exercice #5.2 : implémentation Python Numpy**
   - Copiez le programme ''​MyDFT_1.py''​ en ''​MyDFT_2.py''​   - Copiez le programme ''​MyDFT_1.py''​ en ''​MyDFT_2.py''​
   - Modifiez ''​MyDFT_2.py''​ suivant les 7 spécifications ci-dessus   - Modifiez ''​MyDFT_2.py''​ suivant les 7 spécifications ci-dessus
Ligne 1041: Ligne 1153:
   - changer le domaine d'​itération pour la boucle : ''​range()''​ par ''​numba.prange()''​   - changer le domaine d'​itération pour la boucle : ''​range()''​ par ''​numba.prange()''​
  
-<note warning>​**Exercice #4.3 : implémentation Python Numpy**+<note warning>​**Exercice #5.3 : implémentation Python Numpy**
   - Copiez le programme ''​MyDFT_2.py''​ en ''​MyDFT_3.py''​ et exploitez ce dernier   - Copiez le programme ''​MyDFT_2.py''​ en ''​MyDFT_3.py''​ et exploitez ce dernier
   - Copiez la fonction ''​NumpyDFT''​ en ''​NumbaDFT''​   - Copiez la fonction ''​NumpyDFT''​ en ''​NumbaDFT''​
Ligne 1071: Ligne 1183:
 Pour l'​implémentation OpenCL, la version "​naïve"​ de l'​implémentation va servir. Pour cela, il suffit de reprendre la définition de la méthode naïve et de l'​implémenter en C dans un noyau OpenCL. A noter que Pi n'​étant dans une variable définie, il faut explicitement la détailler dans le noyau OpenCL. Autre détail important : le //cast//. De manière a éviter tout effet de bord, il est fortement recommandé de //caster// les opérations dans la précision flottante souhaitée pour des opérations sur des indices entiers. Pour l'​implémentation OpenCL, la version "​naïve"​ de l'​implémentation va servir. Pour cela, il suffit de reprendre la définition de la méthode naïve et de l'​implémenter en C dans un noyau OpenCL. A noter que Pi n'​étant dans une variable définie, il faut explicitement la détailler dans le noyau OpenCL. Autre détail important : le //cast//. De manière a éviter tout effet de bord, il est fortement recommandé de //caster// les opérations dans la précision flottante souhaitée pour des opérations sur des indices entiers.
  
-<note warning>​**Exercice #4.4 : implémentation Python OpenCL**+<note warning>​**Exercice #5.4 : implémentation Python OpenCL**
   - Copiez le programme ''​MyDFT_3.py''​ en ''​MyDFT_4.py''​ et exploitez ce dernier   - Copiez le programme ''​MyDFT_3.py''​ en ''​MyDFT_4.py''​ et exploitez ce dernier
   - Copiez la fonction python ''​OpenCLAddition''​ en ''​OpenCLDFT''​   - Copiez la fonction python ''​OpenCLAddition''​ en ''​OpenCLDFT''​
Ligne 1146: Ligne 1258:
   * modifier les vecteurs en sortie (2 vecteurs)   * modifier les vecteurs en sortie (2 vecteurs)
  
-<note warning>​**Exercice #4.5 : implémentation Python CUDA**+<note warning>​**Exercice #5.5 : implémentation Python CUDA**
   - Copiez le programme ''​MyDFT_4.py''​ en ''​MyDFT_5.py''​ et exploitez ce dernier   - Copiez le programme ''​MyDFT_4.py''​ en ''​MyDFT_5.py''​ et exploitez ce dernier
   - Copiez la fonction python ''​CUDAAddition''​ en ''​CUDADFT''​   - Copiez la fonction python ''​CUDAAddition''​ en ''​CUDADFT''​
Ligne 1255: Ligne 1367:
 L'​objectif est donc de reprendre notre exemple le plus abouti de notre DFT et d'y ajouter ces éléments. Pour cela, les programmes ''​PiXPU.py''​ et ''​TrouNoir.py''​ vont être explorés pour voir comment faire. L'​objectif est donc de reprendre notre exemple le plus abouti de notre DFT et d'y ajouter ces éléments. Pour cela, les programmes ''​PiXPU.py''​ et ''​TrouNoir.py''​ vont être explorés pour voir comment faire.
  
-<note warning>​**Exercice #5.1 : exploration de PiXPU.py**+<note warning>​**Exercice #6.1 : exploration de PiXPU.py**
   - Identifiez les lignes correspondant aux paramétrages par défaut   - Identifiez les lignes correspondant aux paramétrages par défaut
   - Identifiez les lignes sur la découverte des périphériques OpenCL   - Identifiez les lignes sur la découverte des périphériques OpenCL
Ligne 1273: Ligne 1385:
   - Sélectionner une exécution sous OpenCL ou CUDA avec l'​option ''​-g''​   - Sélectionner une exécution sous OpenCL ou CUDA avec l'​option ''​-g''​
  
-<note warning>​**Exercice #5.2 : modification du programme ''​MyDFT_6.py''​**+<note warning>​**Exercice #6.2 : modification du programme ''​MyDFT_6.py''​**
   - Supprimer la sélection initiale d'​argument   - Supprimer la sélection initiale d'​argument
   - Inhiber pour l'​instant l'​exécution des fonctions   - Inhiber pour l'​instant l'​exécution des fonctions
Ligne 1314: Ligne 1426:
 </​code>​ </​code>​
  
-<note warning>​**Exercice #5.3 : modification du programme ''​MyDFT_7.py''​**+<note warning>​**Exercice #6.3 : modification du programme ''​MyDFT_7.py''​**
   - Libérez pour l'​appel à la fonction ''​OpenCLDFT''​   - Libérez pour l'​appel à la fonction ''​OpenCLDFT''​
   - Rajoutez le test exploitant la sélection OpenCL ou CUDA   - Rajoutez le test exploitant la sélection OpenCL ou CUDA
Ligne 1492: Ligne 1604:
  
 <note warning> <note warning>
-**Exercice #6.1 : éditez le source du programme ''​xGEMM.c''​ et repérez les éléments suivants**+**Exercice #7.1 : éditez le source du programme ''​xGEMM.c''​ et repérez les éléments suivants**
  
   * Identifiez dans ''​Makefile''​ quelles directives (précédées par ''​-D''​) sont associées aux différentes implémentations   * Identifiez dans ''​Makefile''​ quelles directives (précédées par ''​-D''​) sont associées aux différentes implémentations
Ligne 1761: Ligne 1873:
  
 <note warning> <note warning>
-**Exercice #6.2 : lancez les ''​xGEMM_<​precision>​_<​implementation>''​ avec une taille de 1000**+**Exercice #7.2 : lancez les ''​xGEMM_<​precision>​_<​implementation>''​ avec une taille de 1000**
  
   * Variez le nombre d'​itérations pour obtenir une durée d'​exécution d'une dizaine de secondes ?   * Variez le nombre d'​itérations pour obtenir une durée d'​exécution d'une dizaine de secondes ?
Ligne 1780: Ligne 1892:
  
 <note warning> <note warning>
-**Exercice #6.3 : lancez les programmes précédents pour différentes tailles**+**Exercice #7.3 : lancez les programmes précédents pour différentes tailles**
  
   * Diminuez la taille aux valeurs suivantes ''​125'',​ ''​250'',​ ''​500''​ et exécutez les programmes   * Diminuez la taille aux valeurs suivantes ''​125'',​ ''​250'',​ ''​500''​ et exécutez les programmes
Ligne 1815: Ligne 1927:
 L'​objectif est de "​jouer"​ le [[https://​www.tensorflow.org/​tutorials/​images/​cnn|tutoriel]] exploitant la base d'​images CIFAR10 pour un apprentissage convolutif. L'​objectif est de "​jouer"​ le [[https://​www.tensorflow.org/​tutorials/​images/​cnn|tutoriel]] exploitant la base d'​images CIFAR10 pour un apprentissage convolutif.
  
-<note warning>​**Exercice #7.1 :**+<note warning>​**Exercice #8.1 :**
   - chargez l'​environnement conda   - chargez l'​environnement conda
   - préparez la variable d'​environnement ''​TIME''​   - préparez la variable d'​environnement ''​TIME''​
Ligne 1838: Ligne 1950:
 En regardant l'​activité du GPU, il apparaît que le gain est substanciel par rapport à une "​petite"​ configuration GPU. Cependant, la nature du réseau créé n'​exploitait pas de manière optimale la GPU par rapport à la CPU. Une petite modification de notre réseau va permettre de mettre cela en évidence, en modifiant le nombre de poids d'une des couches neuronales. En regardant l'​activité du GPU, il apparaît que le gain est substanciel par rapport à une "​petite"​ configuration GPU. Cependant, la nature du réseau créé n'​exploitait pas de manière optimale la GPU par rapport à la CPU. Une petite modification de notre réseau va permettre de mettre cela en évidence, en modifiant le nombre de poids d'une des couches neuronales.
  
-<note warning>​**Exercice #7.2 :**+<note warning>​**Exercice #8.2 :**
   - changez **64** en **65536** dans ''​model.add(layers.Dense(64,​ activation='​relu'​))''​   - changez **64** en **65536** dans ''​model.add(layers.Dense(64,​ activation='​relu'​))''​
   - supprimez la référence à ''​CUDA_VISIBLE_DEVICES''​ avec ''​export -n CUDA_VISIBLE_DEVICES''​   - supprimez la référence à ''​CUDA_VISIBLE_DEVICES''​ avec ''​export -n CUDA_VISIBLE_DEVICES''​
Ligne 1861: Ligne 1973:
 Le code source est accessible à l'​adresse : https://​www.r-ccs.riken.jp/​labs/​cbrt/​download/​genesis-version-1-5/ ​ Le code source est accessible à l'​adresse : https://​www.r-ccs.riken.jp/​labs/​cbrt/​download/​genesis-version-1-5/ ​
  
-<note warning>​**Exercice #8.1 : Récupérez et compilez le code suivant la documentation fournie**+<note warning>​**Exercice #9.1 : Récupérez et compilez le code suivant la documentation fournie**
   * Lisez la [[https://​www.r-ccs.riken.jp/​labs/​cbrt/​installation/​|documentation]] d'​installation   * Lisez la [[https://​www.r-ccs.riken.jp/​labs/​cbrt/​installation/​|documentation]] d'​installation
   * Placez les sources dans le dossier ''/​local/​$USER/​GENESIS''​ créé pour l'​occasion   * Placez les sources dans le dossier ''/​local/​$USER/​GENESIS''​ créé pour l'​occasion
Ligne 1880: Ligne 1992:
 Pour finir, dans comme ce programme est "​aussi"​ //​gépufié//​ (porté sur GPU), il risque d'y avoir un goulet d'​étranglement pour l'​accès au GPU pour les 64 tâches simultanées. Ainsi, les programmes "​fortement"​ parallélisés exigent de choisir judicieusement les différents paramètres de parallélisation tout comme nous avons vue que, pour les GPU, il fallait découper la tâche en un nombre optimal de sous-tâches. Pour finir, dans comme ce programme est "​aussi"​ //​gépufié//​ (porté sur GPU), il risque d'y avoir un goulet d'​étranglement pour l'​accès au GPU pour les 64 tâches simultanées. Ainsi, les programmes "​fortement"​ parallélisés exigent de choisir judicieusement les différents paramètres de parallélisation tout comme nous avons vue que, pour les GPU, il fallait découper la tâche en un nombre optimal de sous-tâches.
  
-<note warning>​**Exercice #8.2 : Exécutez l'​exemple ''​alad_water''​**+<note warning>​**Exercice #9.2 : Exécutez l'​exemple ''​alad_water''​**
   * Récupérez [[http://​www.cbp.ens-lyon.fr/​emmanuel.quemener/​documents/​alad_water.tgz|l'​exemple d'​exécution]]   * Récupérez [[http://​www.cbp.ens-lyon.fr/​emmanuel.quemener/​documents/​alad_water.tgz|l'​exemple d'​exécution]]
   * Décompressez l'​archive dans ''/​local/​$USER/​GENESIS''​   * Décompressez l'​archive dans ''/​local/​$USER/​GENESIS''​
Ligne 1908: Ligne 2020:
 Nous allons tenter de reproduire une [[https://​www.nvidia.com/​en-us/​data-center/​gpu-accelerated-applications/​gromacs/​|expérience de Nvidia]] vantant l'​efficacité des GPGPU pour le logiciel de [[https://​fr.wikipedia.org/​wiki/​Dynamique_mol%C3%A9culaire|dynamique moléculaire]] [[http://​www.gromacs.org/​|Gromacs]]. Nous allons tenter de reproduire une [[https://​www.nvidia.com/​en-us/​data-center/​gpu-accelerated-applications/​gromacs/​|expérience de Nvidia]] vantant l'​efficacité des GPGPU pour le logiciel de [[https://​fr.wikipedia.org/​wiki/​Dynamique_mol%C3%A9culaire|dynamique moléculaire]] [[http://​www.gromacs.org/​|Gromacs]].
  
-<note warning>​**Exercice #9.1 : appliquez la "​recette"​ de Nvidia**+<note warning>​**Exercice #10.1 : appliquez la "​recette"​ de Nvidia**
   * La documentation offre ceci :   * La documentation offre ceci :
     - récupérez le source     - récupérez le source
Ligne 1923: Ligne 2035:
 En cas de difficultés,​ appliquez la [[formation:​insa2020gpu:​insa2020gromacs4buster|recette de Gromacs pour Debian Buster]] ;-) En cas de difficultés,​ appliquez la [[formation:​insa2020gpu:​insa2020gromacs4buster|recette de Gromacs pour Debian Buster]] ;-)
  
-<note warning>​**Exercice #9.2 : Exécutez l'​exemple ''​1536''​** ​+<note warning>​**Exercice #10.2 : Exécutez l'​exemple ''​1536''​** ​
   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution sur GPU (et CPU) ?   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution sur GPU (et CPU) ?
   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution uniquement sur CPU ?   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution uniquement sur CPU ?
formation/gpu4cbp.1678442735.txt.gz · Dernière modification: 2023/03/10 11:05 par equemene