у меня есть раздел XFS на 9 ТБ, состоящий из четырех дисков 3 ТБ в массиве RAID-5 с размером куска 256 КБ, используя MDADM.
когда я создавал раздел, оптимальные значения единиц измерения полосы и ширины (64 и 192 блока) были обнаружены и установлены автоматически, что xfs_info подтверждает:
# xfs_info /dev/md3
meta-data=/dev/md3 isize=256 agcount=32, agsize=68675072 blks
= sectsz=512 attr=2
data = bsize=4096 blocks=2197600704, imaxpct=5
= sunit=64 swidth=192 blks
naming =version 2 bsize=4096 ascii-ci=0
log =internal bsize=4096 blocks=521728, version=2
= sectsz=512 sunit=64 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
однако, я испытывал медленные скорости передачи, и во время расследования я заметил, что если я специально не смонтировать раздел с -o sunit=64,swidth=192
, блок нашивки всегда установлено до 512 и шириной в 1536. Например:
# umount /dev/md3
# mount -t xfs -o rw,inode64 /dev/md3 /data
# grep xfs /proc/mounts
/dev/md3 /data xfs rw,relatime,attr2,delaylog,inode64,logbsize=256k,sunit=512,swidth=1536,noquota 0 0
это предполагаемое поведение?
Я полагаю, что я мог бы просто начать монтаж с sunit=64,swidth=192
каждый раз, но разве это не сделает текущие данные (которые были написаны при монтировании с sunit=512,swidth=1536
) перекошена?
операционная система Debian Wheezy с ядром 3.2.51.
Все четыре диска имеют расширенный формат дисков (smartctl говорит 512 bytes logical, 4096 bytes physical
).
Тот факт, что значения умножаются на 8, заставляет меня задаться вопросом, есть ли что-нибудь чтобы сделать с проблемой, видя, что она соответствует коэффициент умножения между 512 и 4096 дисков размера сектора.
может кто-нибудь пролить свет на это? : -)