Хороший размер блока для клонирования диска с diskdump (dd)

Я использую dd в простейшем виде для клонирования жесткого диска:

dd if=INPUT of=OUTPUT

тем не менее, я читал в MAN-странице, что dd знает параметр blocksize. Существует ли оптимальное значение параметра blocksize, которое ускорит процедуру клонирования?

19
задан Jamal
12.05.2023 14:55 Количество просмотров материала 2880
Распечатать страницу

5 ответов

64k, кажется, хороший выбор:

Results:

  no bs=        78s     144584+0 records
  bs=512        78s     144584+0 records
  bs=1k         38s     72292+0 records
  bs=2k         38s     36146+0 records
  bs=4k         38s     18073+0 records
  bs=5k         39s     14458+1 records
  bs=50k        38s     1445+1 records
  bs=500k       39s     144+1 records
  bs=512k       39s     144+1 records
  bs=1M         39s     72+1 records
  bs=5M         39s     14+1 records
  bs=10M        39s     7+1 records

(взято из здесь).

Это соответствует моим собственным выводам относительно буферизации чтения/записи для ускорения IO-тяжелой конвертерной программы, которую я когда-то сутенерствовал @work.

32
отвечен akira 2023-05-13 22:43

dd будет счастливо копировать с помощью BS все, что вы хотите, и будет копировать частичный блок (в конце).

в основном, размер блока (bs) параметр, кажется, установить объем памяти, который используется для чтения в куске с одного диска, прежде чем пытаться записать этот кусок на другой.

Если у вас много оперативной памяти, то сделать BS большим (но полностью содержащимся в оперативной памяти) означает, что подсистема ввода/вывода используется как можно больше, выполняя массово Большие операции чтения и записи - использование оперативной памяти. Делая BS маленьким, означает, что накладные расходы ввода-вывода Как доля от общей активности идет вверх.

конечно, в этом есть закон убывающей отдачи. Мое грубое приближение заключается в том, что размер блока в диапазоне от 128K до 32M, вероятно, даст такую производительность, что накладные расходы малы по сравнению с простым вводом-выводом, и увеличение не будет иметь большого значения. Причина того, что нижняя граница составляет от 128K до 32M, - это зависит от вашей ОС, оборудования и так далее.

Если бы это был я, я бы провел несколько экспериментов, рассчитывая копию / клон, используя BS 128K и снова используя (скажем) 16M. Если вы заметно быстрее, используйте его. Если нет, то используйте меньший BS из двух.

21
отвечен quickly_now 2023-05-14 01:00

для тех, кто попадает сюда через Google, даже если это обсуждение немного старое...

имейте в виду, что dd тупой по какой-то причине: чем проще, тем меньше способов он может испортить.

сложные схемы секционирования (рассмотрим жесткий диск с двойной загрузкой, который дополнительно использует LVM для своей системы Linux) начнут вытаскивать ошибки из дерева в таких программах, как Clonezilla. Плохо размонтированные файловые системы могут взорвать ntfsclone до небес.

поврежденная файловая система клонированные сектора не хуже, чем оригинал. Поврежденная файловая система после неудачной "умной копии" может быть в очень жалкой форме.

Если вы сомневаетесь, использовать ДД и идти судебно. Судебно-медицинская визуализация требует посекторных копий (на самом деле, для нее может потребоваться больше секторов, чем вы сможете снять с dd, но это долгая история). Это медленно и нудно, но это будет получить работу правильно.

кроме того,познакомьтесь с параметрами "conv=noerror, sync", чтобы вы можете клонировать диски, которые начинают выходить из строя-или сделать ISO с нуля (кашель) компакт-диски-- без него месяцы.

10
отвечен Matt Heck 2023-05-14 03:17

как говорили другие, нет универсального правильного размера блока; то, что оптимально для одной ситуации или одной части оборудования, может быть ужасно неэффективно для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем "оптимальный".

одна вещь, которая является довольно надежной на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байт имеет тенденцию быть почти на порядок медленнее, чем более оптимальная альтернатива. Когда в сомневаюсь, я обнаружил, что 64K-довольно солидный современный дефолт. Хотя 64K обычно не является оптимальным размером блока, по моему опыту, он имеет тенденцию быть намного более эффективным, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug, около 2002 года, рекомендуя размер блока 64K здесь:http://www.mail-archive.com/eug-lug@efn.org/msg12073.html

для определения оптимального размера выходного блока, я написан следующий скрипт, который проверяет написание 128М тестового файла с dd в диапазоне различных размеров блоков, от по умолчанию 512 байт до максимум 64М. Имейте в виду, что этот сценарий использует dd внутренне, поэтому используйте с осторожностью.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

посмотреть на GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, вероятно, потребуется некоторая настройка, чтобы работать на других Unix ароматизация.

по умолчанию команда создает тестовый файл с именем dd_obs_testfile в текущем каталоге. Кроме того, можно указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

выход из сценария-это список протестированных размеры блоков и их передачи расценки вроде так:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи будет варьироваться в зависимости от ОС)

для проверки оптимального чтения размер блока, вы смогли использовать больше или такой же процесс, но вместо чтения из /dev / zero и записи на диск, вы читаете из диск и запись в /dev / null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

посмотреть на GitHub

важным отличием в данном случае является то, что тестовый файл-это файл, который написан сценарий. Не указывайте эту команду на существующий файл, иначе существующий файл будет перезаписывается случайными данными!

для моего конкретного оборудования я обнаружил, что 128K был самым оптимальным размером входного блока на жестком диске, а 32K-самым оптимальным на SSD.

хотя этот ответ охватывает большинство моих выводов, я сталкивался с этой ситуацией достаточно раз, когда я писал об этом в блоге:http://blog.tdg5.com/tuning-dd-block-size/ вы можете найти более подробную информацию о тестах, которые я провел там.

этот пост StackOverflow также может быть полезен: dd: как рассчитать оптимальный размер блока?

9
отвечен tdg5 2023-05-14 05:34

да, но вы не найдете его без множества испытаний. Я обнаружил, что 32M-хорошее значение для использования.

3
отвечен Ignacio Vazquez-Abrams 2023-05-14 07:51

Постоянная ссылка на данную страницу: [ Скопировать ссылку | Сгенерировать QR-код ]

Ваш ответ

Опубликуйте как Гость или авторизуйтесь

Имя
Вверх