Сколько свободного места на жестком диске или SSD?

в неофициальной (т. е. журналистской) технологической прессе, а также в онлайновых технологических блогах и дискуссионных форумах часто встречаются неофициальные советы оставить некоторое количество свободного места на жестких дисках или твердотельных накопителях. Приводятся различные причины этого, а иногда и вовсе отсутствуют. Таким образом, эти утверждения, хотя, возможно, и разумны на практике, имеют мифическую атмосферу. Например:

  • Как только ваши диски заполнятся на 80%, вы должны рассмотрим их full, и вы должны немедленно либо удалить вещи, либо обновить. Если они попали 90% полный, вы должны рассмотреть ваши собственные личные штаны, чтобы быть на фактическом огне, и реагировать с соответствующим количеством непосредственности, чтобы исправить это. (источник.)

  • для того чтобы держать сборку мусора идя на пиковую эффективность, традиционный совет цель для того чтобы держать 20 до 30 процентов вашего привода пустым. (источник.)

  • Мне сказали, что я должен оставить около 20% бесплатно на HD для лучшей производительности, что HD действительно замедляется, когда он близок к полному. (источник.)

  • вы должны оставить место для файлов подкачки и временных файлов. Я сейчас 33% процентов свободного и обет не ниже 10ГБ свободного места на жестком диске. (источник.)

  • Я обычно говорю 15%, однако, как большие жесткие диски теперь адайцев, пока у вас достаточно для вашего временные файлы и файл подкачки, технически вы в безопасности. (Source.)

  • Я бы рекомендовал 10% плюс на Windows, потому что дефрагментация не будет работать, если есть не так много свободного на диске, когда вы запустите его. (источник.)

  • вы обычно хотите оставить около 10% свободного, чтобы избежать фрагментации (Source.)

  • Если ваш диск последовательно более 75 или 80 процентов полной, обновление до большего SSD стоит рассмотреть. (Source.)

проводились ли какие-либо исследования, предпочтительно опубликованные в рецензируемом журнале, в процент или абсолютный объем свободного пространства, необходимый для определенных комбинаций операционных систем, файловой системы и технологии хранения (например, магнитного диска или твердого тела)? (В идеале, такие исследования также объясняли бы причину не превышать конкретный объем используемого пространства, например, для того, чтобы предотвратить выход системы из подкачки, или во избежание потери производительности.)

Если вы знаете любого такого исследования, то я был бы благодарен если вы смогли ответить с ссылку на него плюс краткое резюме выводов. Спасибо!

103
задан sampablokuper 2017-10-04 14:43:23
источник

9 ответов

проводились ли какие-либо исследования, предпочтительно опубликованные в рецензируемом журнале [...]?

для этого нужно вернуться намного дальше, чем на 20 лет, системного администрирования или иначе. Это была горячая тема, по крайней мере, в мире персональных компьютеров и операционных систем рабочих станций, более 30 лет назад; время, когда люди BSD разрабатывали файловую систему Berkeley Fast, а Microsoft и IBM разрабатывали высокую производительность файловая система.

в литературе по обоим ее создателям обсуждаются способы, которыми эти файловые системы были организованы так, что политика распределения блок дали лучшую производительность, пытаясь сделать последовательные блоки файлов смежными. Вы можете найти обсуждение этого, и того факта, что количество и расположение свободного пространства, оставшегося для выделения блоков, влияет на размещение блоков и, следовательно, на производительность, в современных статьях по этой теме.

должно быть довольно очевидно, например, из описания алгоритма распределения блоков в Berkeley FFS, что если в текущей и вторичной группе цилиндров нет свободного места, и алгоритм, таким образом, достигает резервного четвертого уровня ("применить исчерпывающий поиск ко всем группам цилиндров"), производительность выделения блоков дисков будет страдать, как и фрагментация файла (и, следовательно, производительность чтения).

именно эти и подобные анализы (далеко не единственные проекты файловой системы, направленные на улучшение политики компоновки проектов файловой системы того времени), на которой основана полученная мудрость последних 30 лет.

например: изречение В оригинальной статье о том, что Тома FFS должны быть заполнены менее чем на 90%, чтобы не пострадала производительность, которая была основана на экспериментах, проведенных создателями, можно найти некритически повторяется даже в книгах по файловым системам Unix, опубликованных в этом веке (например, Pate2003 p. 216). Несколько человек этот вопрос, хотя Амир Х. Majidimehr действительно позапрошлом веке, говоря, что Хе на практике не наблюдается заметного эффекта; не в последнюю очередь из-за традиционного для Unix механизм, что резервы, которые последние 10% для суперпользователя использовать, а это означает, что 90% полного диска практически на 100% для не-администраторов в любом случае (Majidimehr1996 p. 68). Как и Билл Калкинс, который предполагает, что на практике можно заполнить до 99%, с размерами диска 21-го века, раньше наблюдая за производительностью эффектов низкого свободного пространства, потому что даже 1% современных дисков размер достаточно, чтобы иметь много свободного пространства еще играть с (Calkins2002 p. 450).

это последнее является примером того, как полученная мудрость может стать неправильной. Есть и другие примеры этого. Так же, как SCSI и ATA миров логическая адресация блоков и немного зонная запись скорее выкинули из окна все тщательные расчеты из ожидания в дизайне файловой системы BSD, поэтому физическая механика SSD скорее выбросит из окна свободное пространство, полученное мудростью, которая относится к Винчестерским дискам.

С SSD, объем свободного места на устройстве в целом, т. е. на всех томах диска а между ними, имеет влияние и на представлении и на продолжительности жизни. И сама основа идеи о том, что файл нужно хранить в блоках с непрерывными логическими адресами блоков это подрывается тем фактом, что SSD не имеют пластин для вращения и головок для поиска. Правила снова меняются.

с твердотельными накопителями рекомендуемый минимальный объем свободного места на самом деле больше чем традиционные 10% которое приходит от экспериментов с дисками Winchester и Berkeley FFS 33 лет тому назад. Ананд Лал Шимпи дает 25%, например. Эта разница усугубляется тем, что это должно быть свободное пространство через все устройство, в то время как 10% показатель в пределах каждого тома FFS, и, таким образом, зависит от того, знает ли программа разбиения на разделы, чтобы обрезать все пространство, которое не выделяется на допустимый том диска таблицей разделов.

это также усугубляется сложностями, такими как TRIM-aware драйверы файловой системы, которые могут обрезать свободное пространство внутри объемы дисков, и то, что сами производители SSD тоже уже выделить различной степени пространства то даже не видимо outwith прибор (т. е. к хозяину) для различных польз как сборка мусора и выравнивать износа.

Библиография

9
отвечен JdeBP 2017-10-09 17:07:16
источник

хотя я не могу говорить об" исследованиях", публикуемых "рецензируемыми журналами", - и я не хотел бы полагаться на них для повседневной работы - я могу говорить о реалиях сотен производственных серверов под различными операционными системами в течение многих лет:

есть три причины, почему полный диск снижает производительность:

  • голодание свободного пространства: подумайте о временных файлах, обновлениях и т. д.
  • деградация файловой системы: большинство файловых систем страдают в их способности оптимально раскладывать файлы, если не хватает места присутствует
  • деградация аппаратного уровня: SSD и SMR диски без достаточного свободного места будут показывать снижение пропускной способности и - что еще хуже-увеличение задержки (иногда на много порядков)

первый пункт тривиален, тем более что ни одна здравомыслящая производственная система никогда не будет использовать пространство подкачки в динамически расширяющихся и сжимающихся файлах.

вторая точка сильно отличается между файловые системы и рабочая нагрузка. Для системы Windows со смешанной рабочей нагрузкой пороговое значение 70% оказывается вполне приемлемым. Для файловой системы Linux ext4 с несколькими, но большими файлами (например, системами видеотрансляции) это может доходить до 90%.

третий момент аппаратные и зависит от прошивки, но особенно дисков SSD с контроллером SandForce может упасть обратно в блок стирания на высокой-пишите нагрузок, что приводит к задержки записи на тысячи процентов. Мы обычно выходим 25% свободно на уровень раздела, после этого наблюдает тарифом заполнения под 80%.

рекомендации

Я понимаю, что я упомянул как убедитесь, что применяется максимальная скорость заполнения. Некоторые случайные мысли, ни одна из них "рецензируемая" (платная, фальшивая или реальная), но все они из производственных систем.

  • использовать границы файловой системы: /var не принадлежит корневой файловой системе.
  • мониторинг, мониторинг, мониторинг. Используйте готовое решение, если он подходит вам, иначе разобрать вывод df -h и давайте сигналы тревоги в случае. Это может спасти вас от 30 ядер на корневом fs с автоматическим обновлением, установленным и работающим без опции autoremove.
  • взвесьте потенциальное нарушение переполнения fs против стоимости его увеличения в первую очередь: если вы не находитесь на встроенном устройстве, вы можете просто удвоить эти 4G для root.
49
отвечен Eugen Rieck 2017-10-05 19:12:05
источник

есть ли какие-либо исследования...в процентном или абсолютном объеме свободного пространства, необходимого для определенных комбинаций операционных систем, файловой системы и технологии хранения...?

за 20 лет системного администрирования я никогда не сталкивался с исследованиями, подробно описывающими требования к свободному пространству различных конфигураций. Я подозреваю, что это потому, что компьютеры настолько различно настроены было бы трудно сделать из-за огромного количества возможных конфигурация системы.

чтобы определить, сколько свободного места требуется системе, необходимо учитывать две переменные:

  1. минимальное пространство, необходимое для предотвращения нежелательного поведения, которая сама по себе может иметь определение жидкости.

    обратите внимание, что бесполезно определять необходимое свободное пространство только этим определением, так как это эквивалентно тому, что можно безопасно ездить на 80 миль в час к кирпичной стене до той самой точки, в которой вы сталкиваетесь с ним.

  2. тариф на хранение потребляется, что диктует дополнительный переменный объем пространства вверх быть зарезервированы, чтобы система деградировать до того, как администратор успевает реагировать.

определенная комбинация ОС, файловых систем, базовой архитектуры хранения, а также поведения приложения, конфигурации виртуальной памяти и т. д. создает довольно проблему к одному желая обеспечить окончательный открытый космос требования.

вот почему так много" самородков " советов. Вы заметите, что многие из них дают рекомендации по конкретной конфигурации. Например, "если у вас есть SSD, который подвержен проблемам с производительностью при приближении к емкости, оставайтесь выше 20% свободного места."

потому что нет простого ответа на этот вопрос, правильный подход к определению код требование к космоса системы минимальное свободное рассматривать различное родовое рекомендации в свете конкретной конфигурации вашей системы, а затем установить порог, контролировать его, и быть готовым, чтобы настроить его по мере необходимости.

или вы можете просто оставить по крайней мере 20% свободного места. если, конечно, у вас нет Тома RAID 6 объемом 42 ТБ, поддерживаемого комбинацией SSD и традиционных жестких дисков и предварительно выделенного файла подкачки... (это шутка для серьезных людей.)

29
отвечен Twisty Impersonator 2017-10-05 16:25:25
источник

конечно, сам диск (HDD или SSD) не мог заботиться меньше о том, сколько процентов его используется, кроме SSD, способных стереть их свободное пространство для вас заранее. Производительность чтения будет точно такой же, а производительность записи на SSD может быть несколько хуже. Во всяком случае, производительность записи не так важна на почти полном диске, так как нет места для записи.

ваша ОС, файловая система и приложения, с другой стороны, будут ожидать, что вы будете иметь свободный место доступно в любое время. 20 лет назад это было типично для приложения, чтобы проверить, сколько места у вас было на диске, прежде чем пытаться сохранить файлы там. Сегодня, приложение создать временные файлы без вашего разрешения, и, как правило, аварии или вести себя хаотично, когда они не в состоянии сделать это.

файловые системы имеют аналогичные ожидания. Например, NTFS резервирует большой кусок диска для MFT, но по-прежнему показывает это пространство как свободное. Когда вы заполняете NTFS диск выше 80% своей емкости, вы получаете фрагментации MFT которое имеет очень реальный удар по представлению.

кроме того, наличие свободного пространства действительно помогает против фрагментации файлов. Файловые системы стараются избегать файл fragmenation, находя правильное место для каждого файла в зависимости от его размера. На почти заполненном диске у них будет меньше вариантов, поэтому им придется сделать более плохой выбор.

на Windows, вы также ожидается, что на диске будет достаточно места для файл подкачки, которое может вырасти когда необходимый. Если это невозможно, следует ожидать принудительного закрытия приложений. Имея очень мало места подкачки действительно может ухудшит производительность.

даже если ваш своп имеет фиксированный размер, запуск полностью из системного дискового пространства может привести к сбою системы и / или сделать его не загружаемым (Windows и Linux), потому что ОС будет ожидать, чтобы иметь возможность записывать на диск во время загрузки. Так да, ударяя 90% использования диска, вы должны учитывать, что ваши краски горят. Не один раз я видел компьютеры, которые не загружались должным образом, пока последние загрузки не были удалены, чтобы дать ОС немного места на диске.

11
отвечен Dmitry Grigoryev 2017-10-05 13:10:07
источник

для SSD должно остаться немного места, так как скорость перезаписи увеличивается и отрицательно влияет на производительность записи диска. 80% вполне безопасное значение вероятно для всех дисков SSD, некоторые самые последние модели может работать отлично даже с емкостью занятой 90-95%.

https://www.howtogeek.com/165542/why-solid-state-drives-slow-down-as-you-fill-them-up/

8
отвечен Jaroslav Kucera 2017-10-04 14:52:59
источник

"правила" меняются в зависимости от ваших требований. И есть особые случаи, такие как, например, ZFS: "при 90% емкости ZFS переключается с оптимизации производительности на космическую оптимизацию, что имеет огромные последствия для производительности.". Да, это конструкция аспект ZFS...не что-то выведенное через замечание или неофициальные сведения. Очевидно, что это не проблема, если пул хранения ZFS состоит исключительно из SSD. Однако, даже с закручивая дисками, вы можете счастливо достигнуть 99% или 100% когда вы общаетесь с статическим хранением и вам не нужно первоклассное представление-например, ваше личное все время любимое собрание фильма, которое никогда не изменяет и где безопасность приоритет 1.

далее, btrfs-крайний случай: когда свободного места становится слишком мало (несколько Мбайт), вы можете попасть в точку невозврата. Нет, удаление файлов не вариант, как вы не можете. Просто недостаточно места для удаления файлов. btrfs-это файловая система COW (copy-on-write), и вы можете достичь точки где вы больше не можете изменять метаданные. На этом этапе можно добавить дополнительное хранилище в файловую систему (флэш-накопитель USB может работать), затем удалить файлы из расширенной файловой системы, затем сжать файловую систему и снова удалить дополнительное хранилище. Опять же, это какой-то аспект, вызванный конструкция файловой системы.

люди, которые могут дать вам "реальные (серьезные) данные", вероятно, имеют дело с"реальным (серьезным) хранением". (Отличный виртуальным персонажем ) ответ: гибридные массивы mentiones (состоящие из огромного количества дешевых медленно вращающихся дисков, множества быстро вращающихся дисков, множества SSD...), которые работают в корпоративной среде, где основным лимитирующим фактором является скорость, с которой администратор может заказать модернизацию. Переход от 16T до 35T может занять 6 месяцев...так что вы в конечном итоге с серьезно подкреплены отчеты, которые предлагают установить будильник на 50%.

8
отвечен Klaws 2017-10-05 18:05:30
источник

много, много факторов которые вносят вклад в результат в очень настроени-специфических количествах. Таким образом, нет жесткого и быстрого числа, это может быть измерено только в зависимости от этих параметров. (Вероятно, поэтому другие пользователи не сообщают о каких - либо конкретных исследованиях по этому конкретному вопросу-слишком много переменных, чтобы собрать что-либо окончательное.)

  • оборудование

    • HDD имеет все свои участки размещанные все время. Поэтому ему абсолютно все равно, сколько из них содержат текущие пользовательские данные. (Для регулятора, все участки содержат некоторые данные все время, оно как раз читает и перезаписывает его как сказано к.)
    • контроллер SSD, с другой стороны, (de)выделяет свои сектора динамически, подобно файловой системе. Что делает эту работу сложнее при более высоких обычаях. Насколько это сложнее и насколько это влияет на наблюдаемую производительность, зависит от:
      • производительность контроллера и качество алгоритмов'
      • пишите load
      • в степени письма, общая нагрузка (чтобы дать контроллеру время для сборки мусора)
      • Overprovision космоса (некоторые изготовления даже препятствуют клиенту выбрать его pre-order или изменить динамически)
  • файловой системы

    • различные файловые системы конструированы для различных нагрузок и требований к обработки хозяина. Это может быть изменено в некоторой степени параметрами формата.
    • FS написать производительность-это функция свободного пространства и фрагментации, производительность чтения-только функция фрагментации. Он постепенно деградирует с самого начала, поэтому вопрос в том, где находится ваш терпимый порог.
  • тип загрузки

    • запись-тяжелая нагрузка подчеркивает быстрый поиск и доступ к новым свободным блокам
    • прочитанный - тяжелая нагрузка подчеркивает консолидировать родственные данные поэтому ее можно прочитать с накладные расходы
4
отвечен ivan_pozdeev 2017-10-06 14:25:39
источник

одна вещь, котор нужно рассматривать с механически приводами что объем наружного края более высок чем внутренность. Это потому что больше участков в виток для более большой окружности снаружи.

по мере того как привод достигает емкость, представление уменьшит потому что только более медленные внутренние участки будут доступны.

для более глубокого анализа см. https://superuser.com/a/643634

3
отвечен Wes Toleman 2017-10-05 12:32:46
источник

Это зависит от предполагаемого использования диска, но в целом от 20% до 15% свободного пространства является хорошим ответом для вращающихся дисков, а 10% или более подходит для твердотельных накопителей.

Если это главный диск на компьютере и файлы могут быть перемещены, то 20% свободного места должно предотвратить значительное замедление. Это позволит достаточно открытого пространства на диске для перемещения и копирования данных по мере необходимости. Закручивая привод будет работать наиболее хорошо когда свободные положения ближе к первоначальным данным, пока в SSD физическое местоположение не влияет на ежедневное выполнение. Таким образом, вращающийся диск должен иметь больше свободного пространства по чисто техническим причинам. На твердотельном накопителе уменьшение свободного места уменьшит долговечность диска, но не снизит его производительность. SSD пытается хранить временные данные и случайные файлы загрузки в наименее используемых местах, чтобы они могли сбалансировать использование ячеек по всему диску; в противном случае часть диска будет стареть намного быстрее, чем остальная его часть. Некоторые новые SSD могут разумно измените расположение файлов так, чтобы пустое пространство перемещалось, но старые диски могут этого не делать.

Если это носитель или накопитель длительного хранения, то 5% до 10% свободного должно быть достаточно, и 10% было бы предпочтительнее, если это вращающийся диск. Вам не нужно столько свободного места, потому что этот диск редко требует перемещения данных, поэтому производительность не так важна. Свободное пространство полезно в основном для удаления и замены поврежденных секторов, а также для увеличения объема файлов смежный.

Я бы не стал толкать любой диск мимо 95% емкости более чем на день, если нет очень хорошей, ясной причины.

3
отвечен user3685427 2017-10-06 16:25:15
источник