Как часть решения для резервного копирования, я использую s3cmd для передачи загрузки файлов.
У меня четыре разные работы с каталогами разных размеров и файлами разных размеров.
Три из рабочих мест работает просто отлично. Последняя работа, однако, висит на сообщении:
Retrieving list of remote files for <...>
И когда я говорю, что это зависает, я имею в виду, что это не идет дальше. Так стояло целую неделю на 100% стабильном офисном интернет-соединении.
Теперь каталог, который он пытается загрузить, большой. Около 306GB. Это, безусловно, самая большая из рабочих мест.
Я видел сообщение о StackOverflow с проблемой, аналогичной (не идентичной) этой проблеме, и в принятом ответе говорилось, что нужно отредактировать .s3cfg и установить большее значение socket_timeout. Я изменил его с 10 до 180, но это не имело значения.
Есть идеи, что попробовать дальше? Я потерпел неудачу в поиске.