У меня есть несколько огромных файлов данных в далекой галактике. Мне нужно скачать их, и это может занять несколько дней. Хотя я хочу убедиться, что все данные загружены в целости и сохранности, без компромиссов, я также должен убедиться, что я не использую всю полосу пропускания, поскольку другим людям может понадобиться удаленный доступ к этой машине.
У меня есть две альтернативные метинки: wget --limit-rate=amount
/ curl --limit-rate <speed>
или клиентский клиент rtorrent
, transmission
или что-то подобное.
Я новичок, и хотел бы знать, каковы будут преимущества одного и другого. Кроме того, есть ли другие способы, чтобы загрузить эти монстры-файлы правильно?