Les briques Gluster sont hors ligne et les erreurs dans les journaux

J'ai remplacé toutes les adresses IP par les noms d'hôtes et les configurations renommées (IP to hostname) dans / var / lib / glusterd par mon script shell. Après cela, j'ai redémarré Glemme Daemon et le volume. Ensuite, j'ai vérifié si tous les pairs sont connectés:

root@GlusterNode1a:~# gluster peer status Number of Peers: 3 Hostname: gluster-1b Uuid: 47f469e2-907a-4518-b6a4-f44878761fd2 State: Peer in Cluster (Connected) Hostname: gluster-2b Uuid: dc3a3ff7-9e30-44ac-9d15-00f9dab4d8b9 State: Peer in Cluster (Connected) Hostname: gluster-2a Uuid: 72405811-15a0-456b-86bb-1589058ff89b State: Peer in Cluster (Connected) 

Je pouvais voir le changement de taille des volumes montés sur tous les nœuds lorsque df command df , donc de nouveldatatables arrivent. Mais récemment, j'ai remarqué des messages d'erreur dans le journal de l'application:

 copy(/storage/152627/dat): failed to open stream: Structure needs cleaning readfile(/storage/1438227/dat): failed to open stream: Input/output error unlink(/storage/189457/23/dat): No such file or directory 

Enfin, j'ai découvert que certaines briques sont hors ligne:

 root@GlusterNode1a:~# gluster volume status Status of volume: storage Gluster process Port Online Pid ------------------------------------------------------------------------------ Brick gluster-1a:/storage/1a 24009 Y 1326 Brick gluster-1b:/storage/1b 24009 NN/A Brick gluster-2a:/storage/2a 24009 NN/A Brick gluster-2b:/storage/2b 24009 NN/A Brick gluster-1a:/storage/3a 24011 Y 1332 Brick gluster-1b:/storage/3b 24011 NN/A Brick gluster-2a:/storage/4a 24011 NN/A Brick gluster-2b:/storage/4b 24011 NN/A NFS Server on localhost 38467 Y 24670 Self-heal Daemon on localhost N/AY 24676 NFS Server on gluster-2b 38467 Y 4339 Self-heal Daemon on gluster-2b N/AY 4345 NFS Server on gluster-2a 38467 Y 1392 Self-heal Daemon on gluster-2a N/AY 1402 NFS Server on gluster-1b 38467 Y 2435 Self-heal Daemon on gluster-1b N/AY 2441 

Que puis-je faire à ce sujet? Je dois le réparer.

Remarque: l'utilisation du CPU et du réseau de tous les quatre nœuds est à peu près la même.

J'ai résolu le problème avec l'aide de JoeJulian de Freenode # Gluster. Lorsque j'ai examiné la list des process, il y avait des process utilisant une ancienne configuration: /usr/sbin/glusterfsd -s localhost --volfile-id storage.11.111.111.11.storage-2b... Après l'exécution de cette command:

 killall glusterfsd ; killall -9 glusterfsd ; killall glusterd ; glusterd 

La situation est résolue – toutes les briques sont en ligne:

 # gluster volume status Status of volume: storage Gluster process Port Online Pid ------------------------------------------------------------------------------ Brick gluster-1a:/storage/1a 24009 Y 17302 Brick gluster-1b:/storage/1b 24009 Y 12188 Brick gluster-2a:/storage/2a 24009 Y 10863 Brick gluster-2b:/storage/2b 24009 Y 13486 Brick gluster-1a:/storage/3a 24011 Y 17308 Brick gluster-1b:/storage/3b 24011 Y 12194 Brick gluster-2a:/storage/4a 24011 Y 10869 Brick gluster-2b:/storage/4b 24011 Y 13492 NFS Server on localhost 38467 Y 17314 Self-heal Daemon on localhost N/AY 17320 NFS Server on gluster-2a 38467 Y 10879 Self-heal Daemon on gluster-2a N/AY 10885 NFS Server on gluster-2b 38467 Y 13503 Self-heal Daemon on gluster-2b N/AY 13509 NFS Server on gluster-1b 38467 Y 12200 Self-heal Daemon on gluster-1b N/AY 12206