Est-ce que mdstat qui affiche des tailles de blocs très différentes pour les variateurs identiques indique un disque défaillant?

L'un de mes servers possède un réseau RAID1 composé de deux SSD de 240 Go. Il est géré / contrôlé via Linux, pas via une carte matérielle.

Récemment, sans raison apparente, le réseau devait être reconstruit. J'ai redémarré le server quelques fois récemment, donc peut-être qu'il y avait un arrêt défaillant qui l'a forcé.

Cependant, la reconstitution a pris beaucoup plus de time que prévu (~ 5 jours), ce qui me fait penser à l'échec de l'un des lecteurs.

cat /proc/mdstat montre:

 root@i3261:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md0 : active raid1 sdb1[1] sda1[0] 242153280 blocks super 1.2 [2/2] [UU] md1 : active raid1 sdb5[1] sda5[0] 7768000 blocks super 1.2 [2/2] [UU] unused devices: <none> 

Le delta entre les blocks semble très élevé. D'autant plus que ces SSD sont censés être identiques.

Est-ce que cela indique une défaillance du lecteur?

  • Utilisation des SSD SATA III pour les pools ZFS
  • RAID5 array over-provisioning en créant un tableau plus petit?
  • Combien de disques peut saturer un controller 6GSAS? : LSI 9260-8i
  • Qui fabrique les disques SSD SAS SAS vendus par HP?
  • RAID 6 - une amplification d'écriture dans le RAID à 4 disques?
  • RAID10 (16 x 256GB SSD) dans PowerEdge R720 pour Build Server
  • Comment débloquer un SSD connecté à un server distant?
  • Est-ce pire d'être compatible avec Samsung 960 EVO au lieu de la version Pro en termes de prix à perforamce mesure?
  • ZFS: meilleures pratiques pour append du cache aux pools
  • migration de données cassandra du disque dur vers SSD sur le server de production
  • ZFS - Impact de l'échec du périphérique de cache L2ARC (Nexenta)
  • Les astuces du serveur de linux et windows, tels que ubuntu, centos, apache, nginx, debian et des sujets de rĂ©seau.