1

Я хочу загрузить огромный файл (набор данных) объемом около 200 ГБ, но на моем компьютере, подключенном к Интернету, недостаточно места на диске. Я хочу загружать часть файла (например, фрагменты по 30 ГБ) при каждом запуске и перемещать фрагменты на мой сервер (который имеет большой объем памяти). Затем я в конечном итоге объединю куски, чтобы построить весь файл. (К вашему сведению, сервер изолирован от сети, я передаю файлы с помощью флэш-памяти.)

Как я могу загрузить часть файла (например, от 10 000 000 до 20 000 000)?

Любой инструмент / команда в Linux (предпочтительнее) или Windows подтверждается.

Спасибо

2 ответа2

2

Вы можете использовать cURL для этого. Позиции указываются в байтах:

curl -r 10000-20000 http://server/file >chunk2

чтобы получить второй кусок 10 КБ.

1

Чтобы вы могли загрузить файл таким способом, было бы проще, если бы человек, предоставляющий файл, разбил его на вас по кусочкам, тогда вы используете инструмент, с помощью которого он разбил его, чтобы собрать его обратно.

Чтобы надежно разбить его на куски, вам в любом случае понадобится весь файл, который вы не можете получить.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .