Raid 1 mdadm (linux) восстановление после сбоя диска: DRDY err (UNC) продолжает повторять не удается достичь входа

в минувшие выходные я получил несколько писем от нашего сервера сетевого хранения (только пользовательская коробка с программным обеспечением CentOS 5 и 2 2TB raid 1), указывающая на обнаруженные проблемы с одним из дисков.

Я сделал статус и 2 из рейдовых разделов были помечены как failed:

    [root@aapsan01 ~]# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
      104320 blocks [2/2] [UU]

md0 : active raid1 sdb3[1] sda3[2](F)
      4064320 blocks [2/1] [_U]

md3 : active raid1 sdb5[1] sda5[0]
      1928860160 blocks [2/2] [UU]

md2 : active raid1 sdb2[1] sda2[2](F)
      20482752 blocks [2/1] [_U]

Итак, я установил все разделы sda в "failed", успешно удалил все зеркала sda, поставил новый 2TB идентичный диск (после выключения) и загрузился. Теперь я не могу связаться с логином поскольку сообщения об ошибках продолжают повторяться после достижения массива raid MD: autodetect во время процесса загрузки. Сначала ошибки были примерно такие:

  DRDY err (UNC) -- exception emask media error

теперь я получаю ошибки ввода-вывода. Я попытался удалить поврежденный диск, а затем снова включить его. То же шоу. Записи, которые я нашел, показывают, что это простой процесс восстановления. Что это дает? Кто-нибудь сталкивался с чем-то подобным? Похоже, что процесс загрузки все еще продолжается, хотя он принимает эоны, чтобы пройти через каждый шаг. Кто-нибудь когда-нибудь приходилось ждать так долго, чтобы добраться до подсказки? Надеюсь, если я не смогу добраться до подсказки, я смогу добраться куда-нибудь со спасательным компакт-диском.

8
задан Journeyman Geek
26.11.2022 21:56 Количество просмотров материала 3520
Распечатать страницу

3 ответа

посмотрите на md2 - он имеет два раздела в массиве, указанном в порядке [sdb2] [sda2], и статус пары указан как [_U], что означает, что первый раздел ([sdb2]) выпал из сопряжения. Прочтите здесь:http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array. Надеюсь, ты все уладишь.

1
отвечен Linker3000 2022-11-28 05:44

я тупица. Я неправильно идентифицировал неисправный диск и пытался использовать плохой в моих усилиях по восстановлению. Для тех, кто заинтересован, вы можете использовать lshal, чтобы получить s/n плохой диск. перенаправьте вывод lshal в файл журнала, а затем выполните поиск sdb sda или любого другого mdadm или SMART, идентифицированного как плохой.

0
отвечен Flotsam N. Jetsam 2022-11-28 08:01

следуя ответу Linker3000, содержимое диска, который вы удалили первым, должно быть в порядке. Удалите диск, который вы теперь знаете, на самом деле сломанной и попробуйте начать с хорошего диска в одиночку. Есть небольшой шанс, что МД отмечен ваш здоровый диск как позади, когда вы re-добавил он со сломанной настоящий диск. В этом случае необходимо начать с live CD/USB и повторно активировать RAID. После того, как ваша система работает нормально, вы можете начать снова с обычных шагов, чтобы добавьте новый диск в RAID 1s.

0
отвечен Joachim Wagner 2022-11-28 10:18

Постоянная ссылка на данную страницу: [ Скопировать ссылку | Сгенерировать QR-код ]

Ваш ответ

Опубликуйте как Гость или авторизуйтесь

Имя
Вверх