XFS не может прочитать суперблок

я проснулся сегодня утром, чтобы найти письмо от моего RAID хоста (Linux Software RAID) говорит мне, что диск не удалось. Это потребительское оборудование, ничего страшного. У меня есть запасные части. Однако, когда я добрался до сервера, все это было невосприимчиво. В какой-то момент я понял, что у меня нет выбора, кроме как отключить питание и перезагрузка.

система подошла, неисправный диск по-прежнему помечен как failed, /proc/mdstat выглядит правильно. Однако он не будет монтировать /dev/md0 и говорит я:

mount: /dev/md0: can't read superblock

теперь я начинаю беспокоиться. Поэтому я стараюсь xfs_check и xfs_repair, первый из которых говорит мне:

xfs_check: /dev/md0 is invalid (cannot read first 512 bytes)

и последнее:

Phase 1 - find and verify superblock...
superblock read failed, offset 0, size 524288, ag 0, rval 0

fatal error -- Invalid argument

теперь мне становится страшно. До сих пор мой поиск в Google был бесполезен. Теперь я еще не в режиме паники, потому что я боялся раньше, и это всегда срабатывало в течение нескольких дней. Я все еще могу поп в моей холодной запасной сегодня вечером, пусть это восстановить (в течение 36 часов), а затем посмотреть, если файловая система находится в более пригодном для использования состоянии. Я могу, возможно, даже попытаться изменить форму массива обратно до 10 дисков с текущих 11 (так как я еще не вырос в файловой системе) и посмотреть, поможет ли это (что занимает большую часть недели).

но пока я на работе, прежде чем я могу сделать это дома Сегодня вечером, я хотел бы обратиться за помощью специалистов.

есть ли у кого-нибудь более осведомленного о файловых системах и RAID какие-либо рекомендации? Может быть, есть что-то, что я могу сделать через SSH отсюда далее диагностировать проблему файловой системы, или даже возможно его починить?

Edit:

выглядит так:/proc/mdstat на самом деле, предоставляющий подсказку:

Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : inactive sdk1[10] sdh1[7] sdj1[5] sdg1[8] sdi1[6] sdc1[2] sdd1[3] sde1[4] sdf1[9] sdb1[0]
      19535119360 blocks

inactive? Поэтому я пытаюсь собрать массив:

# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1
mdadm: device /dev/md0 already active - cannot assemble it

он уже активен? Хотя бы /proc/mdstat говорит мне, что он не активен?

6
задан David
15.12.2022 16:16 Количество просмотров материала 2694
Распечатать страницу

2 ответа

оказывается, это было не так страшно потенциальной потери данных, как я начал бояться. Когда я заметил, что массив был inactive но не удалось собрать, я остановил его:

# mdadm -S /dev/md0
mdadm: stopped /dev/md0

затем попытался собрать его:

# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1
mdadm: /dev/md0 assembled from 10 drives - not enough to start the array while not clean - consider --force.

еще немного страшно, посмотрим, что /proc/mdstat говорит:

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : inactive sdb1[0](S) sdk1[10](S) sdf1[9](S) sdg1[8](S) sdh1[7](S) sdi1[6](S) sdj1[5](S) sde1[4](S) sdd1[3](S) sdc1[2](S)
      19535119360 blocks

все... запчасти... ? Хорошо, снова страшно. Остановите его снова:

# mdadm -S /dev/md0
mdadm: stopped /dev/md0

и попробуйте, что он предлагает, используя --force:

# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1 --force
mdadm: /dev/md0 has been started with 10 drives (out of 11).

10 из 11, так как один сидит на полке рядом с компьютером, так:

# cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid6 sdb1[0] sdk1[10] sdf1[9] sdg1[8] sdh1[7] sdi1[6] sdj1[5] sde1[4] sdd1[3] sdc1[2]
      17581607424 blocks level 6, 64k chunk, algorithm 2 [11/10] [U_UUUUUUUUU]

вздохнув с облегчением, последний тест:

# mount /dev/md0 /mnt/data
# df -ahT
Filesystem    Type    Size  Used Avail Use% Mounted on
/dev/root     ext4     73G  6.9G   63G  10% /
proc          proc       0     0     0   -  /proc
sysfs        sysfs       0     0     0   -  /sys
usbfs        usbfs       0     0     0   -  /proc/bus/usb
tmpfs        tmpfs    1.7G     0  1.7G   0% /dev/shm
/dev/md0       xfs     15T   14T  1.5T  91% /mnt/data

рельеф все вокруг. Мне нужно выпить...

4
отвечен David 2022-12-17 00:04

У меня была аналогичная проблема в 2009 году, раструбить об этом на Facebook а затем не смог воссоздать решение. Это было больше потери данных страшно, однако. Я публикую для потомков и для моей собственной способности найти его.

проблема была немного другой-gparted сказал sda1 был xfs и sda2 был unkown, оба должны быть raid разделов и xfs должен быть на md0

# mdadm --assemble --force /dev/md0 /dev/sda1 /dev/sdb1
# xfs_repair -v /dev/md0
# mount /dev/md0 /mount/myRaid
0
отвечен MaKR 2022-12-17 02:21

Постоянная ссылка на данную страницу: [ Скопировать ссылку | Сгенерировать QR-код ]

Ваш ответ

Опубликуйте как Гость или авторизуйтесь

Имя
Вверх