1

Я долго задавался вопросом, будут ли исходные дистрибутивы Linux, такие как Gentoo или Funtoo, "разрушать" вашу систему быстрее, чем двоичные (например, Fedora или Debian). Я говорю о деградации процессора и жесткого диска.

Конечно, когда вы обновляете вашу систему, она должна скомпилировать все из исходного кода, так что это занимает больше времени, и ваш процессор используется в тяжелых условиях (он теплее и загружен).

Такие системы компилируют сотни пакетов еженедельно, так ли это важно? Разве такая система ухудшается быстрее, чем двоичные?

2 ответа2

1

Компьютерное оборудование не ухудшается быстрее, когда оно используется, при условии адекватного охлаждения. Как правило, то, что убивает электронику, - это тепло, а тепло можно уменьшить с помощью достаточного охлаждения; в современных персональных компьютерах это обычно означает активное охлаждение принудительным воздухом, но существуют и другие возможности (включая водяное охлаждение и, в системах с низким энергопотреблением, строго пассивное / конвективное охлаждение). Какие неисправности приводят к замедлению работы старых компьютеров и их аварийному завершению? и возможно ли для роутера «испортиться» со временем? коснуться этого.

Существует одно главное исключение: хранилище на основе флэш-памяти, такое как хранилище, используемое в твердотельных накопителях, у которого ограниченное число циклов записи до того, как изнашивается каждая флэш-ячейка. Однако современные твердотельные накопители идут на все, чтобы смягчить это, и, несмотря на то, что люди могут сказать, что вы выбрали для предполагаемой рабочей нагрузки в большинстве клиентских и серверных рабочих нагрузок, они достаточно долговечны, особенно в плане износа флэш-памяти. Это включает в себя компиляцию программного обеспечения, которое, хотя и имеет тенденцию создавать большое количество файлов (включая большое количество небольших записей), также сильно кешируется системой и, следовательно, не обязательно подразумевает так много записей в стабильное хранилище. Как отметил Серж, в качестве альтернативы вы можете рассмотреть запуск сборки в файловой системе типа tmpfs, которая обычно использует ОЗУ для хранения, но прибегает к подкачке, если недостаточно ОЗУ недоступно. Это также может ускорить компиляцию, поскольку, в частности, для крупных проектов компиляция с большей вероятностью будет ограничена IOPS, чем пропускной способностью ввода-вывода или ЦП; и даже если он ограничен ЦП, более высокие IOPS, достижимые при использовании ОЗУ для хранения файлов исходного кода, не сделают ситуацию значительно хуже.

Основным убийцей электроники помимо тепла являются примеси напряжения, которые являются фактором питания и в значительной степени не связаны с тем, какие задачи вы выполняете на компьютере. При правильно подобранном источнике питания (который в основном вызывает беспокойство, если вы строите компьютер самостоятельно из деталей) и помимо примесей входного переменного тока (которые будут влиять на любую электронику), это для всех целей и задач не будет проблемой.

1

Если вы действительно настраиваете все пакеты, отключая во время компиляции ненужную функциональность или у вас есть какой-то определенный клон процессора x86, который требует определенной оптимизации от компилятора, то ваша система будет работать даже быстрее, чем та же система, установленная из бинарного дистрибутива. Что касается деградации жесткого диска - вы можете использовать отдельный том для хранения всех ваших промежуточных файлов таких перестроений, которые вы просто форматируете при каждом завершении обновления. Другой вариант - выполнить все это построение на устройстве tmpfs, которое фактически резервируется памятью и обменивается файлами / устройствами, поэтому его содержимое в любом случае очищается при каждом перезапуске системы.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .