XFS: Mount переопределяет параметры sunit и swidth

у меня есть раздел XFS на 9 ТБ, состоящий из четырех дисков 3 ТБ в массиве RAID-5 с размером куска 256 КБ, используя MDADM.

когда я создавал раздел, оптимальные значения единиц измерения полосы и ширины (64 и 192 блока) были обнаружены и установлены автоматически, что xfs_info подтверждает:

# xfs_info /dev/md3
meta-data=/dev/md3               isize=256    agcount=32, agsize=68675072 blks
         =                       sectsz=512   attr=2
data     =                       bsize=4096   blocks=2197600704, imaxpct=5
         =                       sunit=64     swidth=192 blks
naming   =version 2              bsize=4096   ascii-ci=0
log      =internal               bsize=4096   blocks=521728, version=2
         =                       sectsz=512   sunit=64 blks, lazy-count=1
realtime =none                   extsz=4096   blocks=0, rtextents=0

однако, я испытывал медленные скорости передачи, и во время расследования я заметил, что если я специально не смонтировать раздел с -o sunit=64,swidth=192, блок нашивки всегда установлено до 512 и шириной в 1536. Например:

# umount /dev/md3
# mount -t xfs -o rw,inode64 /dev/md3 /data
# grep xfs /proc/mounts
/dev/md3 /data xfs rw,relatime,attr2,delaylog,inode64,logbsize=256k,sunit=512,swidth=1536,noquota 0 0

это предполагаемое поведение?
Я полагаю, что я мог бы просто начать монтаж с sunit=64,swidth=192 каждый раз, но разве это не сделает текущие данные (которые были написаны при монтировании с sunit=512,swidth=1536) перекошена?

операционная система Debian Wheezy с ядром 3.2.51.
Все четыре диска имеют расширенный формат дисков (smartctl говорит 512 bytes logical, 4096 bytes physical).
Тот факт, что значения умножаются на 8, заставляет меня задаться вопросом, есть ли что-нибудь чтобы сделать с проблемой, видя, что она соответствует коэффициент умножения между 512 и 4096 дисков размера сектора.

может кто-нибудь пролить свет на это? : -)

20
задан Sauron
28.02.2023 1:48 Количество просмотров материала 3698
Распечатать страницу

1 ответ

ваша тайна умножить на 8, потому что xfs_info показывает sunit / swidth в блоках bsize, как правило, 4096 байт. При указании sunit / swidth в mount с -o или fstab, они указываются в 512-байтовых единицах. Обратите внимание на строку "blks" после чисел sunit / swidth в Примере вывода xfs_info. 4096/512=8, отсюда и тайна множитель.

человек 5 XFS излагает это в сунитской строфе, как и mkfs.а XFS, по 512Б единиц.

man xfs_growfs, который удваивается как на странице справочника xfs_info, заклинания, как блоки для xfs_info являются bsize байт.

путаешь, да. Очень плохой выбор дизайна с точки зрения пользовательского интерфейса, да.

указание "- o sunit=64, swidth=192 " было, вероятно, плохой идеей, поскольку на самом деле вы хотели 64/8=8 и 192/8=24. Возможно, вы "жестко закодировали" 8-кратные значения в FS, теперь смонтировав их с большими числами. Man-страница довольно откровенна о том, что никогда не сможет переключиться на более низкий сунит. Однако, вы возможно, можно попробовать и посмотреть, получаете ли вы ошибки монтирования. Mount for XFS должен (но без гарантий) быть достаточно надежным, чтобы не съесть ваши данные: он должен просто выплюнуть ошибку и отказаться от монтирования или монтировать с разумными параметрами, игнорируя то, что вы укажете. Сначала сделайте резервные копии.

тем не менее, на самом деле не может быть ничего плохого в 8-кратном увеличении sunit/swidth, так как это все о выравнивании, и эти цифры все еще выровнены. Возможно, могут быть проблемы фрагментации или проблемы, если большинство у тебя крошечные файлы?

в сторону: то, что я работаю сейчас и нахожу интригующим, - это то, что нужно изменить значения sunit/swidth, когда вы растете/изменяете свой MD RAID, добавляя 1 диск. На справочной странице вы не сможете изменить sunit, если не удвоите количество дисков, но изменение swidth все еще возможно. В большинстве случаев еще предстоит выяснить, приведет ли это к надлежащему согласованию. Информация от людей, которые действительно делают это, кажется скудной.

3
отвечен Trevor Cordes 2023-03-01 09:36

Постоянная ссылка на данную страницу: [ Скопировать ссылку | Сгенерировать QR-код ]

Ваш ответ

Опубликуйте как Гость или авторизуйтесь

Имя

Похожие вопросы про тегам:

debian
linux
mdadm
raid
xfs
Вверх