Я пытаюсь заархивировать и загрузить старый сайт в статически размещенную область Amazon S3.
Я смог получить содержимое с помощью wget
, используя следующую команду:
wget --mirror --no-parent --html-extension --page-requisites http://original.com
Затем я мог бы заменить все ссылки на их новый URL:
ag -l original\.com -0 | xargs -0 sed -i '' \
's|original.com|old.original.com|g'
После этого я загрузил сайт в Amazon S3 с s3cmd sync
.
Моя единственная проблема сейчас, когда все активы, «кешированные», теперь недоступны в Amazon. Проблема в том, что wget
получил файлы с параметрами запроса, включенными в их имя файла, и мне нужно их переименовать.
Поэтому я хотел бы рекурсивно переименовывать файлы во всех подпапках, например:
style.css?ver=4.2.5.css
переименовывается вstyle.css
Как я могу сделать это в Mac OS X, используя Bash 3.2?