Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
ressources:ressources:tensorflow [2018/09/13 09:21]
equemene [Configuration d'exploitation]
ressources:ressources:tensorflow [2019/06/11 18:10] (Version actuelle)
equemene
Ligne 1: Ligne 1:
 ====== Tensorflow ====== ====== Tensorflow ======
  
-L'environnement [[https://​www.tensorflow.org/​|Tensorflow]] a été installé ​cet été au Centre Blaise Pascal. ​+Un nouvel ​environnement [[https://​www.tensorflow.org/​|Tensorflow]] a été installé ​ce printemps ​au Centre Blaise Pascal. ​
  
-Deux environnements étaient disponibles mais seul l'​environnement ​permettant d'exploiter les cartes GPU à base de circuit Nvidia a été installée. La version courante déployée est la 1.10.+Il exploite ​l'​environnement ​Anaconda3 installé dans le dossier ''/​opt/​anaconda3'​'
  
 ===== Configuration d'​exploitation ===== ===== Configuration d'​exploitation =====
  
-L'​environnement Tensorflow ​disponible exige une version ​spécifique ​de CUDA, la 9.0 minimum.+L'​environnement Tensorflow ​installé dans Anaconda3 exploite ​une version de TensorFlow 1.12
  
-Pour la charge dans le SIDUS standard du CBP:<​code>​/usr/​share/​modules/init/bash +Pour la charge dans le SIDUS standard du CBP:<​code>​source ​/etc/conda.init
-module load cuda/9.0+
 </​code>​ </​code>​
 +
 +Lorsqu'​il est activé l'​invite de commande est alors préfixée de ''​(base)''​. Par exemple, l'​utilisateur ''​einstein''​ sur la machine ''​ascenseur''​ aura comme invite de commande :<​code>​(base) einstein@ascenseur:​~$</​code>​
  
 ===== Exemple ===== ===== Exemple =====
Ligne 24: Ligne 25:
 </​code>​ </​code>​
  
-A l'​exécution de la première ​ligne, ​vous pouvez avoir un message ​d'erreur sans importance ​: +A l'​exécution de la troisième ​ligne, ​l'​environnement détecte les cartes graphiques susceptibles ​d'être exploitées ​:<​code>​ 
-<​code>/​usr/lib/python2.7/dist-packages/h5py/__init__.py:34FutureWarningConversion of the second argument of issubdtype from `float` to `np.floating` is deprecatedIn future, it will be treated as `np.float64 == np.dtype(float).type`. +2019-06-11 18:​03:​17.928752:​ I tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: SSE4.1 SSE4.2 AVX 
-  from ._conv import register_converters as _register_converters +2019-06-11 18:​03:​17.938098:​ I tensorflow/​core/​platform/profile_utils/cpu_utils.cc:94] CPU Frequency1995195000 Hz 
-</code> +2019-06-11 18:03:17.938873: I tensorflow/​compiler/​xla/​service/​service.cc:150] XLA service 0x562f3dba5a30 executing computations on platform HostDevices: 
- +2019-06-11 18:03:17.938924: I tensorflow/​compiler/​xla/​service/​service.cc:​158] ​  ​StreamExecutor device ​(0)<undefined>, <undefined
-A l'​exécution de la seconde lignel'​environnement détecte la carte graphique susceptible d'​être exploitée :<code+2019-06-11 18:03:18.167596: I tensorflow/​stream_executor/​cuda/​cuda_gpu_executor.cc:​998] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero 
-2018-08-21 11:24:28.475954: I tensorflow/​stream_executor/​cuda/​cuda_gpu_executor.cc:​897] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero +2019-06-11 18:​03:​18.203546:​ I tensorflow/​stream_executor/​cuda/​cuda_gpu_executor.cc:​998] successful NUMA node read from SysFS had negative value (-1), but there must be at least one NUMA node, so returning NUMA node zero 
-2018-08-21 11:24:28.476656: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1405] Found device 0 with properties:  +2019-06-11 18:​03:​18.205179:​ I tensorflow/​compiler/​xla/​service/​service.cc:​150] XLA service 0x562f3dc62f80 executing computations on platform CUDA. Devices: 
-name: GeForce ​GTX TITAN major: 3 minor: 5 memoryClockRate(GHz):​ 0.8755 +2019-06-11 18:​03:​18.205294:​ I tensorflow/​compiler/​xla/​service/​service.cc:​158] ​  ​StreamExecutor device (0): GeForce RTX 2080, Compute Capability 7.5 
-pciBusID: 0000:06:00.0 +2019-06-11 18:​03:​18.205385:​ I tensorflow/​compiler/​xla/​service/​service.cc:​158] ​  ​StreamExecutor device (1): GeForce GT 730, Compute Capability 3.5 
-totalMemory: ​5.94GiB freeMemory: 5.83GiB +2019-06-11 18:03:18.206798: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1433] Found device 0 with properties:  
-2018-08-21 11:24:28.476704: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1484] Adding visible gpu devices: 0 +name: GeForce ​RTX 2080 major: 7 minor: 5 memoryClockRate(GHz):​ 1.71 
-2018-08-21 11:24:34.039086: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​965] Device interconnect StreamExecutor with strength 1 edge matrix: +pciBusID: 0000:​04:​00.0 
-2018-08-21 11:24:34.039883: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​971]      0  +totalMemory:​ 7.77GiB freeMemory: 7.65GiB 
-2018-08-21 11:24:34.039922: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​984] 0:   N  +2019-06-11 18:​03:​18.207245:​ I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1433] Found device 1 with properties:  
-2018-08-21 11:24:34.040245: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1097] Created TensorFlow device (/​job:​localhost/​replica:​0/​task:​0/​device:​GPU:​0 with 5626 MB memory) -> physical GPU (device: 0, name: GeForce ​GTX TITAN, pci bus id: 0000:06:00.0, compute capability: ​3.5)+name: GeForce GT 730 major: 3 minor: 5 memoryClockRate(GHz):​ 0.9015 
 +pciBusID: 0000:03:00.0 
 +totalMemory: ​1.95GiB freeMemory: ​1.90GiB 
 +2019-06-11 18:​03:​18.207374:​ I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1497] Ignoring visible gpu device (device: 1, name: GeForce GT 730, pci bus id: 0000:​03:​00.0,​ compute capability: 3.5) with Cuda multiprocessor count: 2. The minimum required count is 8. You can adjust this requirement with the env var TF_MIN_GPU_MULTIPROCESSOR_COUNT
 +2019-06-11 18:03:18.207456: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1512] Adding visible gpu devices: 0 
 +2019-06-11 18:03:18.210563: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​984] Device interconnect StreamExecutor with strength 1 edge matrix: 
 +2019-06-11 18:03:18.210632: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​990]      0  
 +2019-06-11 18:03:18.210687: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1003] 0:   N  
 +2019-06-11 18:​03:​18.210734:​ I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1003] 1:   N N  
 +2019-06-11 18:03:18.211630: I tensorflow/​core/​common_runtime/​gpu/​gpu_device.cc:​1115] Created TensorFlow device (/​job:​localhost/​replica:​0/​task:​0/​device:​GPU:​0 with 7439 MB memory) -> physical GPU (device: 0, name: GeForce ​RTX 2080, pci bus id: 0000:04:00.0, compute capability: ​7.5)
 </​code>​ </​code>​
-Dans l'​exemple ci-dessus, il s'agit d'une carte GeForce ​GTX TITAN avec 5.94GiB de RAM.+Dans l'​exemple ci-dessus, il s'​agit ​d'une carte  ​d'une carte GeForce ​GT 730 avec 1.95GiB de RAM et d'une carte GeForce RTX 2080 avec 7.65GiB de RAM
  
 La dernière ligne permet s'​assurer que la session fonctionne de manière nominal en affichant :<​code>​ La dernière ligne permet s'​assurer que la session fonctionne de manière nominal en affichant :<​code>​
ressources/ressources/tensorflow.txt · Dernière modification: 2019/06/11 18:10 par equemene