Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente Prochaine révision Les deux révisions suivantes | ||
ressources:ressources:tensorflow [2019/06/11 18:10] equemene |
ressources:ressources:tensorflow [2019/11/04 17:44] equemene [Configuration d'exploitation] |
||
---|---|---|---|
Ligne 7: | Ligne 7: | ||
===== Configuration d'exploitation ===== | ===== Configuration d'exploitation ===== | ||
- | L'environnement Tensorflow installé dans Anaconda3 exploite une version de TensorFlow 1.12 | + | Deux environnements Tensorflow sont installés dans deux Anaconda3 différents : |
+ | * l'environnement Tensorflow installé dans Anaconda3-2019.03 exploite une version de TensorFlow 1.12 | ||
+ | * l'environnement Tensorflow installé dans Anaconda3-2019.10 exploite une version de TensorFlow 2.0 | ||
- | Pour la charge dans le SIDUS standard du CBP:<code>source /etc/conda.init | + | Pour charger l'environnement Tensorflow 1.12 |
+ | Pour la charge dans le SIDUS standard du CBP:<code>source /etc/tensorflow.init | ||
</code> | </code> | ||
+ | |||
+ | Pour charger l'environnement Tensorflow 2.0 | ||
+ | Pour la charge dans le SIDUS standard du CBP:<code>source /etc/tensorflow2.init | ||
+ | </code> | ||
+ | |||
+ | |||
Lorsqu'il est activé l'invite de commande est alors préfixée de ''(base)''. Par exemple, l'utilisateur ''einstein'' sur la machine ''ascenseur'' aura comme invite de commande :<code>(base) einstein@ascenseur:~$</code> | Lorsqu'il est activé l'invite de commande est alors préfixée de ''(base)''. Par exemple, l'utilisateur ''einstein'' sur la machine ''ascenseur'' aura comme invite de commande :<code>(base) einstein@ascenseur:~$</code> | ||
Ligne 58: | Ligne 67: | ||
Une grande variété de [[https://www.tensorflow.org/tutorials/|tutoriels]] en ligne permettent de vérifier le bon fonctionnement. | Une grande variété de [[https://www.tensorflow.org/tutorials/|tutoriels]] en ligne permettent de vérifier le bon fonctionnement. | ||
+ | |||
+ | ===== Astuces en cas de plantage incompréhensible ===== | ||
+ | |||
+ | Il se peut que dans l'utilisation, des plantages apparaissent avec comme source de première erreur ''CUDNN_STATUS_INTERNAL_ERROR'' | ||
+ | <code>2019-09-28 05:35:09.764756: E tensorflow/stream_executor/cuda/cuda_dnn.cc:334] Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR | ||
+ | 2019-09-28 05:35:09.766851: E tensorflow/stream_executor/cuda/cuda_dnn.cc:334] Could not create cudnn handle: CUDNN_STATUS_INTERNAL_ERROR | ||
+ | --- | ||
+ | tensorflow.python.framework.errors_impl.UnknownError: Failed to get convolution algorithm. This is probably because cuDNN failed to initialize, so try looking to see if a warning log message was printed above. | ||
+ | --- | ||
+ | </code> | ||
+ | |||
+ | Cette erreur aura cela de désarmant qu'elle ne va pas apparaître sur toutes les machines exploitables avec TensorFlow. | ||
+ | |||
+ | Une solution peut être de définir une variable d'environnement ''$TF_FORCE_GPU_ALLOW_GROWTH'' à ''true'' | ||
+ | <code> | ||
+ | export TF_FORCE_GPU_ALLOW_GROWTH=true | ||
+ | </code> | ||
+ | Cette option (comme son nom l'indique) permet au GPU de conserver la mémoire déjà allouée. Le souci, c'est que cette allocation ne prend fin que lorsque l'exécution est terminée. | ||
<note important>L'application TensorFlow sur GPU requiert une version de GPU avec des capacités minimales pour fonctionner (compute capability de 3.5) : sur les 50 GPU accessibles au CBP, certains ne supportent pas cette capacité</note> | <note important>L'application TensorFlow sur GPU requiert une version de GPU avec des capacités minimales pour fonctionner (compute capability de 3.5) : sur les 50 GPU accessibles au CBP, certains ne supportent pas cette capacité</note> | ||
Ligne 71: | Ligne 98: | ||
* circuits GT200 : Quadro FX4000, Tesla C1060 | * circuits GT200 : Quadro FX4000, Tesla C1060 | ||
* circuits Fermi : GTX 560Ti, Quadro 4000 | * circuits Fermi : GTX 560Ti, Quadro 4000 | ||
- | * circuits Kepler : GTX 680, GTX 690, | + | |
- | * circuits Maxwell : GTX 960, GTX 970, GTX980 | + | |