Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
formation:anfbigdata [2016/12/15 18:43]
equemene
formation:anfbigdata [2016/12/15 18:59] (Version actuelle)
equemene
Ligne 600: Ligne 600:
 </​code>​ </​code>​
  
-Cette commande prend autour de 50 secondes ​sur une machine lente.+Cette commande prend un peu moins d'une minute ​sur une machine lente.
  
 Lançons maintenant une lecture tout aussi parallèle Lançons maintenant une lecture tout aussi parallèle
Ligne 607: Ligne 607:
 </​code>​ </​code>​
  
-Cette commande prend autour de 12 secondes.+Cette commande ​ne prend quelques quelques ​secondes.
  
 Il est possible de voir comment sont distribués les fichiers sur les différents serveurs : Il est possible de voir comment sont distribués les fichiers sur les différents serveurs :
Ligne 681: Ligne 681:
 <​code>​ <​code>​
 ssh root@peer1 gluster volume rebalance MyGlusterLinear status ssh root@peer1 gluster volume rebalance MyGlusterLinear status
 +</​code>​
 +Nous avons une sortie comparable à ce qui suit :
 +<​code>​
                                     Node Rebalanced-files ​         size       ​scanned ​     failures ​      ​skipped ​              ​status ​ run time in h:m:s                                     Node Rebalanced-files ​         size       ​scanned ​     failures ​      ​skipped ​              ​status ​ run time in h:m:s
                                ​--------- ​     ----------- ​  ​----------- ​  ​----------- ​  ​----------- ​  ​----------- ​        ​------------ ​    ​--------------                                ​--------- ​     ----------- ​  ​----------- ​  ​----------- ​  ​----------- ​  ​----------- ​        ​------------ ​    ​--------------
Ligne 695: Ligne 698:
  
 <​code>​ <​code>​
-root@peer2: ​494+root@peer2: ​347
 root@peer1: 335 root@peer1: 335
 +root@peer4: 0
 root@peer4: ls: impossible d'​accéder à /​MyGlusterLinear/​File.*:​ Aucun fichier ou dossier de ce type root@peer4: ls: impossible d'​accéder à /​MyGlusterLinear/​File.*:​ Aucun fichier ou dossier de ce type
-root@peer4: 0 
 root@peer3: 318 root@peer3: 318
 </​code>​ </​code>​
Ligne 711: Ligne 714:
 Le message suivant indique que la procédure a démarré Le message suivant indique que la procédure a démarré
 <​code>​ <​code>​
 +volume remove-brick start: success 
 +ID: 92c17fc7-9980-4c73-83fd-fd011a8be530
 </​code>​ </​code>​
  
Ligne 717: Ligne 721:
 <​code>​ <​code>​
 ssh root@peer2 gluster volume remove-brick MyGlusterLinear peer1:/​MyGlusterLinear status ssh root@peer2 gluster volume remove-brick MyGlusterLinear peer1:/​MyGlusterLinear status
-</​code>​ 
- 
-Nous distinguons que le processus est en cours : 
-<​code>​ 
 </​code>​ </​code>​
  
 Une fois terminé, nous avons pour la même commande précédente : Une fois terminé, nous avons pour la même commande précédente :
 <​code>​ <​code>​
 +                                    Node Rebalanced-files ​         size       ​scanned ​     failures ​      ​skipped ​              ​status ​ run time in h:m:s 
 +                               ​--------- ​     ----------- ​  ​----------- ​  ​----------- ​  ​----------- ​  ​----------- ​        ​------------ ​    ​-------------- 
 +                      peer1.gluster.zone ​             335         ​5.2KB ​          ​335 ​            ​0 ​            ​0 ​           completed ​       0:0:13
 </​code>​ </​code>​
  
 Relançons la commande pour voir la distribution sur les différents serveurs Relançons la commande pour voir la distribution sur les différents serveurs
 <​code>​ <​code>​
 +clush -w root@peer[1-4] 'ls /​MyGlusterLinear/​File.* | wc -l' 
 +</​code>​ 
 +Nous obtenons : 
 +<​code>​ 
 +root@peer1: 0 
 +root@peer1: ls: impossible d'​accéder à /​MyGlusterLinear/​File.*:​ Aucun fichier ou dossier de ce type 
 +root@peer4: 0 
 +root@peer4: ls: impossible d'​accéder à /​MyGlusterLinear/​File.*:​ Aucun fichier ou dossier de ce type 
 +root@peer2: 347 
 +root@peer3: 653
 </​code>​ </​code>​
 +Les fichiers ont bien disparu de **peer1** et se sont retrouvés sur **peer3** !
  
 Validons la suppression Validons la suppression
 <​code>​ <​code>​
-ssh root@peer2 gluster volume remove-brick MyGlusterLinear peer1:/​MyGlusterLinear commit+ssh root@peer2 ​'echo y | gluster volume remove-brick MyGlusterLinear peer1:/​MyGlusterLinear commit'
 </​code>​ </​code>​
  
 Un petit message nous invite à la prudence, pour, au pire, restaurer les données : Un petit message nous invite à la prudence, pour, au pire, restaurer les données :
 <​code>​ <​code>​
 +Removing brick(s) can result in data loss. Do you want to Continue? (y/n) volume remove-brick commit: success 
 +Check the removed bricks to ensure all files are migrated. 
 +If files with data are found on the brick path, copy them via a gluster mount point before re-purposing the removed brick. ​
 </​code>​ </​code>​
  
Ligne 751: Ligne 765:
 Status: Started Status: Started
 Snapshot Count: 0 Snapshot Count: 0
-Number of Bricks: ​3+Number of Bricks: ​2
 Transport-type:​ tcp Transport-type:​ tcp
 Bricks: Bricks:
 Brick1: peer2:/​MyGlusterLinear Brick1: peer2:/​MyGlusterLinear
-Brick2: peer4:/​MyGlusterLinear 
 Brick3: peer3:/​MyGlusterLinear Brick3: peer3:/​MyGlusterLinear
 Options Reconfigured:​ Options Reconfigured:​
Ligne 762: Ligne 775:
 nfs.disable:​ on nfs.disable:​ on
 </​code>​ </​code>​
- 
-Si nous regardons la répartitions des fichiers avec  
-<​code>​ 
-clush -w root@peer[1-4] 'ls /​MyGlusterLinear/​File.* | wc -l' 
-</​code>​ 
-Nous avons : 
-<​code>​ 
-root@peer3: 318 
-root@peer1: 347 
-root@peer2: 335 
-root@peer4: 347 
-</​code>​ 
-Nous voyons que la "​charge"​ de **peer1** a été transféré sur **peer4**. Cependant, en regardant la signature des fichiers, nous constatons qu'ils sont vides sur **peer1**. 
- 
  
 Effaçons ces fichiers et démontons le volume monté sur le client : Effaçons ces fichiers et démontons le volume monté sur le client :
Ligne 782: Ligne 781:
 sudo umount /​media/​MyGlusterLinear sudo umount /​media/​MyGlusterLinear
 </​code>​ </​code>​
 +
 +<note important>​Il ne faut utiliser la commande ''​replace-brick''​ **uniquement** dans le cadre d'un volume ''​replica''​ !</​note>​
  
 ===== Création d’un volume de type ''​striped''​ (équivalent RAID0) ===== ===== Création d’un volume de type ''​striped''​ (équivalent RAID0) =====
formation/anfbigdata.1481823782.txt.gz · Dernière modification: 2016/12/15 18:43 par equemene