Я работаю с файлом tar.gz (196 ГБ). Этот файл должен быть извлечен (240 ГБ) на месте, и я хотел бы, чтобы общее использование диска не превышало 240 ГБ во время процесса (или близко к нему, насколько это возможно). Есть ли способ сделать это?

Я знаком с --remove-files . Я не думаю, что это ограничит общие требования к диску. Я также понимаю, что gunzip автоматически извлекает и удаляет исходный файл (но .tar все равно нужно будет извлечь). Требует ли команда gunzip <file> больше дискового пространства, чем извлеченный tar?

Подвести итоги:

  • Вопрос 1: Какой самый простой способ извлечь файл .tar.gz с минимальными затратами жесткого диска
  • Вопрос 2: Могу ли я настроить подоперации gunzip gunzip <file> и tar --remove-files для выполнения вышеописанного?

Мое решение для резервного копирования состоит в том, чтобы хранить фрагментированные данные и извлекать их итеративно, но я бы предпочел простое нерекурсивное решение.

1 ответ1

0

Если у вас высокоскоростной интернет (достаточно быстро, чтобы загрузить файл архива)

ИЛИ ЖЕ

Ссылка на файл архива, откуда вы скачали

ИЛИ ЖЕ

Ссылка на гугл диск для архива

Воспользуйтесь онлайн-архивом ...

1) загрузить или связать файл архива

2) скачать извлеченное содержимое

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .