я проснулся сегодня утром, чтобы найти письмо от моего RAID хоста (Linux Software RAID) говорит мне, что диск не удалось. Это потребительское оборудование, ничего страшного. У меня есть запасные части. Однако, когда я добрался до сервера, все это было невосприимчиво. В какой-то момент я понял, что у меня нет выбора, кроме как отключить питание и перезагрузка.
система подошла, неисправный диск по-прежнему помечен как failed, /proc/mdstat
выглядит правильно. Однако он не будет монтировать /dev/md0
и говорит я:
mount: /dev/md0: can't read superblock
теперь я начинаю беспокоиться. Поэтому я стараюсь xfs_check
и xfs_repair
, первый из которых говорит мне:
xfs_check: /dev/md0 is invalid (cannot read first 512 bytes)
и последнее:
Phase 1 - find and verify superblock...
superblock read failed, offset 0, size 524288, ag 0, rval 0
fatal error -- Invalid argument
теперь мне становится страшно. До сих пор мой поиск в Google был бесполезен. Теперь я еще не в режиме паники, потому что я боялся раньше, и это всегда срабатывало в течение нескольких дней. Я все еще могу поп в моей холодной запасной сегодня вечером, пусть это восстановить (в течение 36 часов), а затем посмотреть, если файловая система находится в более пригодном для использования состоянии. Я могу, возможно, даже попытаться изменить форму массива обратно до 10 дисков с текущих 11 (так как я еще не вырос в файловой системе) и посмотреть, поможет ли это (что занимает большую часть недели).
но пока я на работе, прежде чем я могу сделать это дома Сегодня вечером, я хотел бы обратиться за помощью специалистов.
есть ли у кого-нибудь более осведомленного о файловых системах и RAID какие-либо рекомендации? Может быть, есть что-то, что я могу сделать через SSH отсюда далее диагностировать проблему файловой системы, или даже возможно его починить?
Edit:
выглядит так:/proc/mdstat
на самом деле, предоставляющий подсказку:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : inactive sdk1[10] sdh1[7] sdj1[5] sdg1[8] sdi1[6] sdc1[2] sdd1[3] sde1[4] sdf1[9] sdb1[0]
19535119360 blocks
inactive
? Поэтому я пытаюсь собрать массив:
# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1
mdadm: device /dev/md0 already active - cannot assemble it
он уже активен? Хотя бы /proc/mdstat
говорит мне, что он не активен?