У меня есть несколько огромных файлов данных в далекой галактике. Мне нужно скачать их, и это может занять несколько дней. Хотя я хочу убедиться, что все данные загружены в целости и сохранности, без компромиссов, я также должен убедиться, что я не использую всю полосу пропускания, поскольку другим людям может понадобиться удаленный доступ к этой машине.

У меня есть две альтернативные метинки: wget --limit-rate=amount / curl --limit-rate <speed> или клиентский клиент rtorrent , transmission или что-то подобное.

Я новичок, и хотел бы знать, каковы будут преимущества одного и другого. Кроме того, есть ли другие способы, чтобы загрузить эти монстры-файлы правильно?

0