Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
formation:gpu4cbp [2023/03/10 12:10]
equemene [Comparaison de toutes les implémentations : victoire incontestée de OpenCL]
formation:gpu4cbp [2024/02/22 11:47] (Version actuelle)
equemene [Récupération des sources]
Ligne 359: Ligne 359:
 svn checkout https://​forge.cbp.ens-lyon.fr/​svn/​bench4gpu/​ svn checkout https://​forge.cbp.ens-lyon.fr/​svn/​bench4gpu/​
 </​code>​ </​code>​
 +
 +Si l'​accès par subversion c'est pas possible, voici une version //tarball// de l'​ensemble de l'​archive : [[https://​www.cbp.ens-lyon.fr/​emmanuel.quemener/​documents/​bench4gpu.tgz|bench4gpu.tgz]]
  
 Dans ce dossier ''​bench4gpu'',​ il y a plusieurs dossiers : Dans ce dossier ''​bench4gpu'',​ il y a plusieurs dossiers :
Ligne 741: Ligne 743:
   - la OpenACC reste supérieure aux implémentations OpenCL/CPU et OpenCL/GPU d'un facteur 3   - la OpenACC reste supérieure aux implémentations OpenCL/CPU et OpenCL/GPU d'un facteur 3
  
-Se contenter uniquement de ce test inviterait à fuire Python/​OpenCL. Cependant, nous avons vu dans sur ''​MySteps_2.py''​ que la charge calculatoire doit être "vraiement" significative pour que le Python/​OpenCL l'​emporte de manière significative. Nous reviendrons donc dans la suite sur des versions modifiées de ces programmes C intégrant la fonction de Mylq ''​MySillyFunction'',​ appelée plusieurs fois, pour juger si "​vraiment" ​Python/​OpenCL reste compétitif face à OpenMP et OpenACC.+Se contenter uniquement de ce test inviterait à fuire Python/​OpenCL. Cependant, nous avons vu dans sur ''​MySteps_2.py''​ que la charge calculatoire doit être "vraiment" significative pour que le Python/​OpenCL l'​emporte de manière significative. Nous reviendrons donc dans la suite sur des versions modifiées de ces programmes C intégrant la fonction de Mylq ''​MySillyFunction'',​ appelée plusieurs fois, pour juger si Python/​OpenCL reste compétitif face à OpenMP et OpenACC.
 ===== Un intermède CUDA et son implémentation PyCUDA ===== ===== Un intermède CUDA et son implémentation PyCUDA =====
  
Ligne 994: Ligne 996:
   * Python/​OpenCL/​CPU est presque 3x plus rapide que la C/OpenMP, 23x plus rapide que le Python Numpy   * Python/​OpenCL/​CPU est presque 3x plus rapide que la C/OpenMP, 23x plus rapide que le Python Numpy
  
-Si nous augmentons la charge individuelle de chaque addition, nous augmentons de manière très significative l'​accéleration de calcul via OpenCL. Pour la configuration ci-dessus, l'​accélération frise avec les 1850 pour le GPU et les 43 pour le CPU, en sollicitant 1000 fois la fonction de Mylq (soit 32001 opérations pour chaque somme).+Si nous augmentons la charge individuelle de chaque addition, nous augmentons de manière très significative l'​accéleration de calcul via OpenCL. Pour la configuration ​matérielle ​ci-dessus, l'​accélération frise avec les 1000 pour le GPU et les 23 pour le CPU, en sollicitant 1000 fois la fonction de Mylq (soit 32001 opérations pour chaque somme). 
 + 
 +Le tableau suivant montre, pour les 7 implémentations,​ le gain face à l'​implémentation native Python : 
 +^  Silly Calls  ^  C/​Serial ​ ^  C/​OpenMP ​ ^  C/​OpenACC ​ ^  PyCL CPU  ^  PyCL GPU  ^  PyCUDA 32T  ^ 
 +^  0|  3.89|  9.39|  1.45|  0.82|  0.60|  0.57| 
 +^  1|  0.40|  4.82|  12.95| ​ 15.40| ​ 56.43| ​ 46.08| 
 +^  10|  0.46|  4.69|  15.96| ​ 20.30| ​ 393.72| ​ 190.89| 
 +^  100|  0.54|  5.18|  17.97| ​ 23.24| ​ 904.59| ​ 294.82| 
 +^  1000|  0.52|  5.10|  17.30| ​ 22.40| ​ 967.09| ​ 290.60| 
 + 
 +Pour obtenir de tels gains, nous avons la conjonction des 2 facteurs : l'​exploitation massive de tous les //​cudacores//​ (les ALU de la GPU) et l'​utilisation de toute la bande passante mémoire de la GPU (10x supérieure généralement à la bande passante mémoire). 
 + 
 +L'​objectif de cette partie TP est donc de retrouver, par soi-même, les facteurs d'​accélération de OpenCL pour des charges croissantes par l'​application de 0, 1, 10, 100, 1000 fois la fonction de Mylq. 
 + 
 +La difficulté viendra du temps d'​exécution de la version séquentielle qui atteint son pallier de performances pour une taille croissante de vecteurs assez rapidement et du choix judicieux de l'​inhibition de l'​exécution séquentielle pour permettre d'​atteindre des tailles de vecteurs significatives. 
 + 
 +<note warning>​**Exercice #4.1 : exécution des différentes implémentations** 
 +  - Compilez ''​MySteps_6.c''​ en ''​MySteps_6''​ 
 +  - Compilez ''​MySteps_6_openmp.c''​ en ''​MySteps_6_openmp''​  
 +  - Compilez ''​MySteps_6_openacc.c''​ en ''​MySteps_6_openacc''​ 
 +  - Compilez ''​MySteps_6_openmp.c''​ en ''​MySteps_6_openmp_NoSerial'',​ sans exécution séquentielle  
 +  - Compilez ''​MySteps_6_openacc.c''​ en ''​MySteps_6_openacc_NoSerial'',​ sans exécution séquentielle 
 +  - Exécutez ''​MySteps_6''​ sur des tailles de 32768 et 65536, pour les différentes charges ci-dessus 
 +  - Relevez les **NativeRate** pour les différentes charges : que constatez vous ? 
 +  - Exécutez ''​MySteps_6_openmp''​ sur des tailles de 32768 et 65536, pour les mêmes charges 
 +  - Relevez les **NativeRate**,​ **OMPRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6_openacc''​ sur des tailles de 32768 et 65536, pour les mêmes charges 
 +  - Relevez les **NativeRate**,​ **ACCRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL/CPU avec l'​Intel sur des tailles de 32768 et 65536 
 +  - Relevez les **NativeRate**,​ **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL/GPU sur le plus gros GPU sur des tailles de 32768 et 65536 
 +  - Relevez les **NativeRate**,​ **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en CUDA/GPU sur le plus gros GPU sur des tailles de 32768 et 65536 
 +  - Relevez les **NativeRate**,​ **CUDARate** pour les différentes charges  
 +  - Placez dans un tableau les différentes valeurs : que constatez-vous ? 
 +  - Exécutez ''​MySteps_6_openmp_NoSerial''​ sur des tailles de 1048576 et 2097152, pour les mêmes charges 
 +  - Relevez **OMPRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6_openacc_NoSerial''​ sur des tailles de 1048576 et 2097152, pour les mêmes charges 
 +  - Relevez **ACCRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL Intel sur des tailles de 1048576 et 2097152, avec l'​option ''​-n''​ 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en CUDA/GPU sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **CUDARate** pour les différentes charges  
 +  - Placez dans un tableau les différentes valeurs : que constatez-vous comme gain en performance en OpenCL ? 
 +</​note>​ 
 + 
 +Vous pouvez juger, du fait de lancement pour des tailles doublées, et pour les différentes charges, que vous avez obtenu des optimums pour certaines implémentations,​ mais pas encore pour d'​autres,​ notamment OpenCL et CUDA.  
 + 
 +Si la performance pour une taille de 2097152 est moins de 5% supérieure à la performance pour une taille de 1048576, vous pouvez considérer que vous avez atteint le quasi-optimum de performance. L'​objectif est d'​atteindre cette limite. 
 + 
 +<note warning>​**Exercice #4.2 : exploration de la meilleure performance OpenCL et CUDA** 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL Intel sur des tailles croissantes avec l'​option ''​-n''​ 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en OpenCL sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **OpenCLRate** pour les différentes charges 
 +  - Exécutez ''​MySteps_6.py''​ en CUDA/GPU sur le même GPU sur des tailles de 1048576 et 2097152 
 +  - Relevez **CUDARate** pour les différentes charges  
 +  - Placez dans un tableau les différentes valeurs : que constatez-vous comme gain en performance en OpenCL ? 
 +</​note>​ 
  
-Pour obtenir de tels gains, nous avons la conjonction de 2 facteurs : l'​exploitation massive de tous les //​cudacores//​ donc les ALU du GPU et l'​utilisation de toute la bande passante mémoire. ​ 
 ===== Implémenter une fonction "​coûteuse",​ la Transformée de Fourier ===== ===== Implémenter une fonction "​coûteuse",​ la Transformée de Fourier =====
  
Ligne 1031: Ligne 1093:
 Il sera alors possible d'​estimer l'​erreur numérique à ce calcul. Il sera alors possible d'​estimer l'​erreur numérique à ce calcul.
  
-<note warning>​**Exercice #4.1 : implémentation Python "​naïve"​**+<note warning>​**Exercice #5.1 : implémentation Python "​naïve"​**
   - Modifiez ''​MyDFT_1.py''​ suivant les 7 spécifications ci-dessus   - Modifiez ''​MyDFT_1.py''​ suivant les 7 spécifications ci-dessus
   - Exécutez le programme pour une taille de **16** et contrôler la cohérence   - Exécutez le programme pour une taille de **16** et contrôler la cohérence
Ligne 1064: Ligne 1126:
   - comparer les résultats entre les deux avec ''​linalg.norm''​   - comparer les résultats entre les deux avec ''​linalg.norm''​
  
-<note warning>​**Exercice #4.2 : implémentation Python Numpy**+<note warning>​**Exercice #5.2 : implémentation Python Numpy**
   - Copiez le programme ''​MyDFT_1.py''​ en ''​MyDFT_2.py''​   - Copiez le programme ''​MyDFT_1.py''​ en ''​MyDFT_2.py''​
   - Modifiez ''​MyDFT_2.py''​ suivant les 7 spécifications ci-dessus   - Modifiez ''​MyDFT_2.py''​ suivant les 7 spécifications ci-dessus
Ligne 1091: Ligne 1153:
   - changer le domaine d'​itération pour la boucle : ''​range()''​ par ''​numba.prange()''​   - changer le domaine d'​itération pour la boucle : ''​range()''​ par ''​numba.prange()''​
  
-<note warning>​**Exercice #4.3 : implémentation Python Numpy**+<note warning>​**Exercice #5.3 : implémentation Python Numpy**
   - Copiez le programme ''​MyDFT_2.py''​ en ''​MyDFT_3.py''​ et exploitez ce dernier   - Copiez le programme ''​MyDFT_2.py''​ en ''​MyDFT_3.py''​ et exploitez ce dernier
   - Copiez la fonction ''​NumpyDFT''​ en ''​NumbaDFT''​   - Copiez la fonction ''​NumpyDFT''​ en ''​NumbaDFT''​
Ligne 1121: Ligne 1183:
 Pour l'​implémentation OpenCL, la version "​naïve"​ de l'​implémentation va servir. Pour cela, il suffit de reprendre la définition de la méthode naïve et de l'​implémenter en C dans un noyau OpenCL. A noter que Pi n'​étant dans une variable définie, il faut explicitement la détailler dans le noyau OpenCL. Autre détail important : le //cast//. De manière a éviter tout effet de bord, il est fortement recommandé de //caster// les opérations dans la précision flottante souhaitée pour des opérations sur des indices entiers. Pour l'​implémentation OpenCL, la version "​naïve"​ de l'​implémentation va servir. Pour cela, il suffit de reprendre la définition de la méthode naïve et de l'​implémenter en C dans un noyau OpenCL. A noter que Pi n'​étant dans une variable définie, il faut explicitement la détailler dans le noyau OpenCL. Autre détail important : le //cast//. De manière a éviter tout effet de bord, il est fortement recommandé de //caster// les opérations dans la précision flottante souhaitée pour des opérations sur des indices entiers.
  
-<note warning>​**Exercice #4.4 : implémentation Python OpenCL**+<note warning>​**Exercice #5.4 : implémentation Python OpenCL**
   - Copiez le programme ''​MyDFT_3.py''​ en ''​MyDFT_4.py''​ et exploitez ce dernier   - Copiez le programme ''​MyDFT_3.py''​ en ''​MyDFT_4.py''​ et exploitez ce dernier
   - Copiez la fonction python ''​OpenCLAddition''​ en ''​OpenCLDFT''​   - Copiez la fonction python ''​OpenCLAddition''​ en ''​OpenCLDFT''​
Ligne 1196: Ligne 1258:
   * modifier les vecteurs en sortie (2 vecteurs)   * modifier les vecteurs en sortie (2 vecteurs)
  
-<note warning>​**Exercice #4.5 : implémentation Python CUDA**+<note warning>​**Exercice #5.5 : implémentation Python CUDA**
   - Copiez le programme ''​MyDFT_4.py''​ en ''​MyDFT_5.py''​ et exploitez ce dernier   - Copiez le programme ''​MyDFT_4.py''​ en ''​MyDFT_5.py''​ et exploitez ce dernier
   - Copiez la fonction python ''​CUDAAddition''​ en ''​CUDADFT''​   - Copiez la fonction python ''​CUDAAddition''​ en ''​CUDADFT''​
Ligne 1305: Ligne 1367:
 L'​objectif est donc de reprendre notre exemple le plus abouti de notre DFT et d'y ajouter ces éléments. Pour cela, les programmes ''​PiXPU.py''​ et ''​TrouNoir.py''​ vont être explorés pour voir comment faire. L'​objectif est donc de reprendre notre exemple le plus abouti de notre DFT et d'y ajouter ces éléments. Pour cela, les programmes ''​PiXPU.py''​ et ''​TrouNoir.py''​ vont être explorés pour voir comment faire.
  
-<note warning>​**Exercice #5.1 : exploration de PiXPU.py**+<note warning>​**Exercice #6.1 : exploration de PiXPU.py**
   - Identifiez les lignes correspondant aux paramétrages par défaut   - Identifiez les lignes correspondant aux paramétrages par défaut
   - Identifiez les lignes sur la découverte des périphériques OpenCL   - Identifiez les lignes sur la découverte des périphériques OpenCL
Ligne 1323: Ligne 1385:
   - Sélectionner une exécution sous OpenCL ou CUDA avec l'​option ''​-g''​   - Sélectionner une exécution sous OpenCL ou CUDA avec l'​option ''​-g''​
  
-<note warning>​**Exercice #5.2 : modification du programme ''​MyDFT_6.py''​**+<note warning>​**Exercice #6.2 : modification du programme ''​MyDFT_6.py''​**
   - Supprimer la sélection initiale d'​argument   - Supprimer la sélection initiale d'​argument
   - Inhiber pour l'​instant l'​exécution des fonctions   - Inhiber pour l'​instant l'​exécution des fonctions
Ligne 1364: Ligne 1426:
 </​code>​ </​code>​
  
-<note warning>​**Exercice #5.3 : modification du programme ''​MyDFT_7.py''​**+<note warning>​**Exercice #6.3 : modification du programme ''​MyDFT_7.py''​**
   - Libérez pour l'​appel à la fonction ''​OpenCLDFT''​   - Libérez pour l'​appel à la fonction ''​OpenCLDFT''​
   - Rajoutez le test exploitant la sélection OpenCL ou CUDA   - Rajoutez le test exploitant la sélection OpenCL ou CUDA
Ligne 1542: Ligne 1604:
  
 <note warning> <note warning>
-**Exercice #6.1 : éditez le source du programme ''​xGEMM.c''​ et repérez les éléments suivants**+**Exercice #7.1 : éditez le source du programme ''​xGEMM.c''​ et repérez les éléments suivants**
  
   * Identifiez dans ''​Makefile''​ quelles directives (précédées par ''​-D''​) sont associées aux différentes implémentations   * Identifiez dans ''​Makefile''​ quelles directives (précédées par ''​-D''​) sont associées aux différentes implémentations
Ligne 1811: Ligne 1873:
  
 <note warning> <note warning>
-**Exercice #6.2 : lancez les ''​xGEMM_<​precision>​_<​implementation>''​ avec une taille de 1000**+**Exercice #7.2 : lancez les ''​xGEMM_<​precision>​_<​implementation>''​ avec une taille de 1000**
  
   * Variez le nombre d'​itérations pour obtenir une durée d'​exécution d'une dizaine de secondes ?   * Variez le nombre d'​itérations pour obtenir une durée d'​exécution d'une dizaine de secondes ?
Ligne 1830: Ligne 1892:
  
 <note warning> <note warning>
-**Exercice #6.3 : lancez les programmes précédents pour différentes tailles**+**Exercice #7.3 : lancez les programmes précédents pour différentes tailles**
  
   * Diminuez la taille aux valeurs suivantes ''​125'',​ ''​250'',​ ''​500''​ et exécutez les programmes   * Diminuez la taille aux valeurs suivantes ''​125'',​ ''​250'',​ ''​500''​ et exécutez les programmes
Ligne 1865: Ligne 1927:
 L'​objectif est de "​jouer"​ le [[https://​www.tensorflow.org/​tutorials/​images/​cnn|tutoriel]] exploitant la base d'​images CIFAR10 pour un apprentissage convolutif. L'​objectif est de "​jouer"​ le [[https://​www.tensorflow.org/​tutorials/​images/​cnn|tutoriel]] exploitant la base d'​images CIFAR10 pour un apprentissage convolutif.
  
-<note warning>​**Exercice #7.1 :**+<note warning>​**Exercice #8.1 :**
   - chargez l'​environnement conda   - chargez l'​environnement conda
   - préparez la variable d'​environnement ''​TIME''​   - préparez la variable d'​environnement ''​TIME''​
Ligne 1888: Ligne 1950:
 En regardant l'​activité du GPU, il apparaît que le gain est substanciel par rapport à une "​petite"​ configuration GPU. Cependant, la nature du réseau créé n'​exploitait pas de manière optimale la GPU par rapport à la CPU. Une petite modification de notre réseau va permettre de mettre cela en évidence, en modifiant le nombre de poids d'une des couches neuronales. En regardant l'​activité du GPU, il apparaît que le gain est substanciel par rapport à une "​petite"​ configuration GPU. Cependant, la nature du réseau créé n'​exploitait pas de manière optimale la GPU par rapport à la CPU. Une petite modification de notre réseau va permettre de mettre cela en évidence, en modifiant le nombre de poids d'une des couches neuronales.
  
-<note warning>​**Exercice #7.2 :**+<note warning>​**Exercice #8.2 :**
   - changez **64** en **65536** dans ''​model.add(layers.Dense(64,​ activation='​relu'​))''​   - changez **64** en **65536** dans ''​model.add(layers.Dense(64,​ activation='​relu'​))''​
   - supprimez la référence à ''​CUDA_VISIBLE_DEVICES''​ avec ''​export -n CUDA_VISIBLE_DEVICES''​   - supprimez la référence à ''​CUDA_VISIBLE_DEVICES''​ avec ''​export -n CUDA_VISIBLE_DEVICES''​
Ligne 1911: Ligne 1973:
 Le code source est accessible à l'​adresse : https://​www.r-ccs.riken.jp/​labs/​cbrt/​download/​genesis-version-1-5/ ​ Le code source est accessible à l'​adresse : https://​www.r-ccs.riken.jp/​labs/​cbrt/​download/​genesis-version-1-5/ ​
  
-<note warning>​**Exercice #8.1 : Récupérez et compilez le code suivant la documentation fournie**+<note warning>​**Exercice #9.1 : Récupérez et compilez le code suivant la documentation fournie**
   * Lisez la [[https://​www.r-ccs.riken.jp/​labs/​cbrt/​installation/​|documentation]] d'​installation   * Lisez la [[https://​www.r-ccs.riken.jp/​labs/​cbrt/​installation/​|documentation]] d'​installation
   * Placez les sources dans le dossier ''/​local/​$USER/​GENESIS''​ créé pour l'​occasion   * Placez les sources dans le dossier ''/​local/​$USER/​GENESIS''​ créé pour l'​occasion
Ligne 1930: Ligne 1992:
 Pour finir, dans comme ce programme est "​aussi"​ //​gépufié//​ (porté sur GPU), il risque d'y avoir un goulet d'​étranglement pour l'​accès au GPU pour les 64 tâches simultanées. Ainsi, les programmes "​fortement"​ parallélisés exigent de choisir judicieusement les différents paramètres de parallélisation tout comme nous avons vue que, pour les GPU, il fallait découper la tâche en un nombre optimal de sous-tâches. Pour finir, dans comme ce programme est "​aussi"​ //​gépufié//​ (porté sur GPU), il risque d'y avoir un goulet d'​étranglement pour l'​accès au GPU pour les 64 tâches simultanées. Ainsi, les programmes "​fortement"​ parallélisés exigent de choisir judicieusement les différents paramètres de parallélisation tout comme nous avons vue que, pour les GPU, il fallait découper la tâche en un nombre optimal de sous-tâches.
  
-<note warning>​**Exercice #8.2 : Exécutez l'​exemple ''​alad_water''​**+<note warning>​**Exercice #9.2 : Exécutez l'​exemple ''​alad_water''​**
   * Récupérez [[http://​www.cbp.ens-lyon.fr/​emmanuel.quemener/​documents/​alad_water.tgz|l'​exemple d'​exécution]]   * Récupérez [[http://​www.cbp.ens-lyon.fr/​emmanuel.quemener/​documents/​alad_water.tgz|l'​exemple d'​exécution]]
   * Décompressez l'​archive dans ''/​local/​$USER/​GENESIS''​   * Décompressez l'​archive dans ''/​local/​$USER/​GENESIS''​
Ligne 1958: Ligne 2020:
 Nous allons tenter de reproduire une [[https://​www.nvidia.com/​en-us/​data-center/​gpu-accelerated-applications/​gromacs/​|expérience de Nvidia]] vantant l'​efficacité des GPGPU pour le logiciel de [[https://​fr.wikipedia.org/​wiki/​Dynamique_mol%C3%A9culaire|dynamique moléculaire]] [[http://​www.gromacs.org/​|Gromacs]]. Nous allons tenter de reproduire une [[https://​www.nvidia.com/​en-us/​data-center/​gpu-accelerated-applications/​gromacs/​|expérience de Nvidia]] vantant l'​efficacité des GPGPU pour le logiciel de [[https://​fr.wikipedia.org/​wiki/​Dynamique_mol%C3%A9culaire|dynamique moléculaire]] [[http://​www.gromacs.org/​|Gromacs]].
  
-<note warning>​**Exercice #9.1 : appliquez la "​recette"​ de Nvidia**+<note warning>​**Exercice #10.1 : appliquez la "​recette"​ de Nvidia**
   * La documentation offre ceci :   * La documentation offre ceci :
     - récupérez le source     - récupérez le source
Ligne 1973: Ligne 2035:
 En cas de difficultés,​ appliquez la [[formation:​insa2020gpu:​insa2020gromacs4buster|recette de Gromacs pour Debian Buster]] ;-) En cas de difficultés,​ appliquez la [[formation:​insa2020gpu:​insa2020gromacs4buster|recette de Gromacs pour Debian Buster]] ;-)
  
-<note warning>​**Exercice #9.2 : Exécutez l'​exemple ''​1536''​** ​+<note warning>​**Exercice #10.2 : Exécutez l'​exemple ''​1536''​** ​
   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution sur GPU (et CPU) ?   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution sur GPU (et CPU) ?
   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution uniquement sur CPU ?   * Quel ''​Elapsed Time''​ avez-vous pour l'​exécution uniquement sur CPU ?
formation/gpu4cbp.1678446635.txt.gz · Dernière modification: 2023/03/10 12:10 par equemene