Я работаю с файлом tar.gz (196 ГБ). Этот файл должен быть извлечен (240 ГБ) на месте, и я хотел бы, чтобы общее использование диска не превышало 240 ГБ во время процесса (или близко к нему, насколько это возможно). Есть ли способ сделать это?
Я знаком с --remove-files
. Я не думаю, что это ограничит общие требования к диску. Я также понимаю, что gunzip автоматически извлекает и удаляет исходный файл (но .tar все равно нужно будет извлечь). Требует ли команда gunzip <file>
больше дискового пространства, чем извлеченный tar?
Подвести итоги:
- Вопрос 1: Какой самый простой способ извлечь файл .tar.gz с минимальными затратами жесткого диска
- Вопрос 2: Могу ли я настроить подоперации gunzip
gunzip <file>
иtar --remove-files
для выполнения вышеописанного?
Мое решение для резервного копирования состоит в том, чтобы хранить фрагментированные данные и извлекать их итеративно, но я бы предпочел простое нерекурсивное решение.