Программное обеспечение RAID 1 конфигурация

Я создал программный RAID 1 довольно давно и он всегда, казалось, работали для меня.
Однако я не совсем уверен, что я настроил все правильно и не имеют опыта, чтобы проверить, так что я был бы очень благодарен за некоторые советы или просто проверки, что все кажется правильным до сих пор.

я использую Linux Fedora 20 (32 бит с планами обновления до 64 бит)
RAID 1 должен состоять из двух жестких дисков SATA емкостью 1 ТБ.

это выход mdadm --detail /dev/md0

/dev/md0:
        Version : 1.2
  Creation Time : Sun Jan 29 11:25:18 2012
     Raid Level : raid1
     Array Size : 976761424 (931.51 GiB 1000.20 GB)
  Used Dev Size : 976761424 (931.51 GiB 1000.20 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Sat Jun  7 10:38:09 2014
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : argo:0  (local to host argo)
           UUID : 1596d0a1:5806e590:c56d0b27:765e3220
         Events : 996387

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8        0        1      active sync   /dev/sda

RAID успешно смонтирован:

friedrich@argo:~ ➤ sudo mount -l | grep md0
/dev/md0 on /mnt/raid type ext4 (rw,relatime,data=ordered)

в основном мой вопрос:

  • почему у меня только 1 активное устройство?
  • государство removed внизу означает?

также я заметил некоторые странные сообщения об ошибках, которые я вижу на консоли при запуске и выключении системы и всегда повторяется в фоновом режиме, когда я переключаюсь с Ctrl + Alt + F2:

...
ata2: irq_stat 0x00000040 connection status changed
ata2: SError: { CommWake DevExch }
ata2: COMRESET failed (errno=-32)
ata2: exception Emask 0x10 SAct 0x0 SErr 0x4040000 action 0xe frozen
ata2: irq_stat 0x00000040 connection status changed
ata2: SError: { CommWake DevExch }
ata2: exception Emask 0x10 SAct 0x0 SErr 0x4040000 action 0xe frozen
...

эти ошибки имеет отношение к рейду? Что - то не так с устройствами SATA..
Все вместе система работает (я могу читать и писать в смонтированный raid), но у меня всегда были эти странные ошибки при запуске (вероятно, всегда в фоновом режиме).

Thx за вашу помощь

20
задан Friedrich Große
06.01.2023 4:21 Количество просмотров материала 2384
Распечатать страницу

1 ответ

кажется, что один из дисков выпал из массива. На это указывает в первую очередь removed состояние, которое вы уже заметили, а затем следующей строкой:

State : clean, degraded

вот что бы я сделал, если бы у меня была такая же проблема:

  • тщательно проверить dmesg по любой причине, почему диск выпал из массива. Вы можете попробовать с dmesg | grep md: и dmesg | grep sdb (Я предполагаю, что диск, который отсутствует был sdb) и посмотреть, если в журнале регистрируются ошибки. Я думаю, что случилось то, что ваш диск был отключен в какой-то момент, и он был удален из массива. Оно смогл быть упаденные должными к любой причине как небезупречные кабели, или сломленный регулятор диска или другое.

  • определить букву диска, который был выпал из массива и проверить его с smartctl для любых вопросов:smartctl -a /dev/disk0. Ищите возможные ошибки в WHEN_FAILED и START OF READ SMART DATA SECTION.

  • если диск оказывается работоспособен (ошибок не указано), можно повторно добавить его в массив: mdadm -a /dev/md0 /dev/sdb. Вы можете следить за ходом перестроения, запустив cat /proc/mdstat.

конечно, я бы посоветовал вам резервное копирование данных, прежде чем делать какие-либо из этих вещей, как выполнение неправильных команд может оставить вас без ваших данных!

0
отвечен user3584460 2023-01-07 12:09

Постоянная ссылка на данную страницу: [ Скопировать ссылку | Сгенерировать QR-код ]

Ваш ответ

Опубликуйте как Гость или авторизуйтесь

Имя
Вверх