Как повторно активировать массив MDADM RAID5?

Я только что переехал дом, который включал демонтаж моего сервера и его повторное подключение. После этого один из моих массивов MDADM RAID5 отображается как неактивный:

root@mserver:/tmp# cat /proc/mdstat 
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10] 
md1 : active raid5 sdc1[1] sdh1[2] sdg1[0]
      3907023872 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]

md0 : inactive sdd1[0](S) sdf1[3](S) sde1[2](S) sdb1[1](S)
      3907039744 blocks

unused devices: <none>

мне кажется, что он нашел все диски, но почему-то не хочет их использовать.

Итак, что означают метки (S) и как я могу сказать MDADM снова начать использовать массив?

[Edit] Я просто попытался остановить и собрать массив с -v:

root@mserver:~# mdadm --stop /dev/md0
mdadm: stopped /dev/md0

root@mserver:~# mdadm --assemble --scan -v
mdadm: /dev/sde1 is identified as a member of /dev/md0, slot 2.
mdadm: /dev/sdf1 is identified as a member of /dev/md0, slot 3.
mdadm: /dev/sdd1 is identified as a member of /dev/md0, slot 0.
mdadm: /dev/sdb1 is identified as a member of /dev/md0, slot 1.
mdadm: added /dev/sdd1 to /dev/md0 as 0 (possibly out of date)
mdadm: added /dev/sdb1 to /dev/md0 as 1 (possibly out of date)
mdadm: added /dev/sdf1 to /dev/md0 as 3 (possibly out of date)
mdadm: added /dev/sde1 to /dev/md0 as 2
mdadm: /dev/md0 assembled from 1 drive - not enough to start the array.

..и входит кошка /proc/mdstat внешне ничем не отличаются.

[Edit2] не уверен, что это поможет, но это результат изучения каждого диска:

корень@mserver:~# для mdadm --изучить устройство /dev/sdb1

/dev/sdb1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71a3 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

корень@mserver:~# для mdadm --изучить устройство /dev/sdd1

/dev/sdd1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sat Apr 20 18:37:23 2013
          State : active
 Active Devices : 2
Working Devices : 2
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c812869 - correct
         Events : 955205

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8      113        0      active sync   /dev/sdh1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

корень@mserver:~# для mdadm --изучение и /dev/sde1

/dev/sde1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Sun Apr 21 14:00:43 2013
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 2
  Spare Devices : 0
       Checksum : 6c90cc70 - correct
         Events : 955219

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       97        2      active sync   /dev/sdg1

   0     0       0        0        0      removed
   1     1       0        0        1      faulty removed
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       0        0        3      faulty removed

root@mserver:~# mdadm --проверить / dev / sdf1

/dev/sdf1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 2f331560:fc85feff:5457a8c1:6e047c67 (local to host mserver)
  Creation Time : Sun Feb  1 20:53:39 2009
     Raid Level : raid5
  Used Dev Size : 976759936 (931.51 GiB 1000.20 GB)
     Array Size : 2930279808 (2794.53 GiB 3000.61 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0

    Update Time : Sat Apr 20 13:22:27 2013
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
       Checksum : 6c8f71b7 - correct
         Events : 955190

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     3       8       33        3      active sync   /dev/sdc1

   0     0       8      113        0      active sync   /dev/sdh1
   1     1       8       17        1      active sync   /dev/sdb1
   2     2       8       97        2      active sync   /dev/sdg1
   3     3       8       33        3      active sync   /dev/sdc1

у меня есть некоторые замечания, которые предполагают, что диски были первоначально собраны следующим образом:

md0 : active raid5 sdb1[1] sdc1[3] sdh1[0] sdg1[2]
      2930279808 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

[Edit3]

просматривая журнал, похоже, что произошло следующее (на основе Update Time на --examine результаты):

  1. sdb и sdf были выбиты через некоторое время после 13:22 20-го
  2. СДД был нокаутирован через некоторое время после 18:37 20-го
  3. сервер был закрыт некоторое время после 14:00 на 1-м

учитывая, что два диска вышли из строя (по-видимому) одновременно, я думаю, что было бы разумно безопасно предположить, что массив не был бы записан после этого момента(?) и так должно быть относительно safe, чтобы заставить его восстановить в правильном порядке? Какая самая безопасная команда для этого и есть ли способ сделать это без записи каких-либо изменений?

19
задан Jon Cage
24.02.2023 16:50 Количество просмотров материала 3295
Распечатать страницу

3 ответа

S метки означают, что диск рассматривается как "запасной". Попробуйте остановить и перезапустить массив:

  mdadm --stop /dev/md0
  mdadm --assemble --scan

для повторной сборки массива, и если это не работает, вам может потребоваться обновить mdadm.conf см., например,этот вопрос подробнее о том, как это сделать.

27
отвечен Stefan Seidel 2023-02-26 00:38

этот вопрос немного стар, но ответ может помочь кому-то, кто сталкивается с подобной ситуацией. Глядя на события рассчитывает от mdadm -- исследовать выход вы предоставили, кажется, они достаточно близко (955190 на sdb1 и sdf1, 955219 для sde1 и sdd1 у тебя 955205). Если они ниже 40-50, это нормально, и в этом случае рекомендуется собрать массив вручную, заставляя команды mdadm принимать диски, несмотря на количество событий разница:

остановить массива:

mdadm --stop /dev/md0

затем попробуйте собрать массив вручную:

mdadm --assemble --force /dev/md0 /dev/sdb1 /dev/sdd1 /dev/sde1 /dev/sdf1

проверьте состояние массива, чтобы проверить, если список дисков/структура в порядке (в нижней части вывода команды покажет, какой диск в каком состоянии и в какой позиции в массиве):

mdadm --detail /dev/md0

если структура в порядке, проверьте ход перестроения:

cat /proc/mdstat
4
отвечен Milen 2023-02-26 02:55

Вы можете активировать Raid md0 командой

mdadm -A /dev/md0

и эта команда для обновления mdadm.файл conf

mdadm --examine --scan >> /etc/mdadm/mdadm.conf
0
отвечен krizna 2023-02-26 05:12

Постоянная ссылка на данную страницу: [ Скопировать ссылку | Сгенерировать QR-код ]

Ваш ответ

Опубликуйте как Гость или авторизуйтесь

Имя
Вверх