Я ищу хороший инструмент для следующего рабочего процесса:
У меня есть каталог (~ 500 МБ) различных проектов. Код веб-сайта, приложения C, приложения django, небольшие виртуальные машины, изображения и т.д. Этот каталог в настоящее время хранится на ноутбуке, который я использую практически для всего, что связано с компьютером, и когда я иду на работу (помощник студента в университете), я обычно беру это Ноутбук со мной и установить его там.
Теперь, однако, я собираюсь получить ПК для своей работы там, что означает, что мне не нужно будет носить ноутбук, но мне нужен какой-то способ синхронизации моей работы между двумя машинами.
По сути, у меня никогда не будет работать обе машины одновременно, поэтому самый простой рабочий процесс, о котором я могу подумать:
- каждый раз, когда я запускаю одну из машин, она должна тянуть последнюю версию
- каждый раз, когда я останавливаю одну из машин, она выдвигает свою версию как последнюю
где "push" и "pull" - это процессы черного ящика для доступа к удаленному хранилищу данных.
В настоящее время я реализовал это с помощью lftp mirror --reverse --delete
для веб-хостинга , но это ужасно медленно. Есть ли лучшие решения, о которых я просто не знаю?
ОБНОВЛЕНИЕ: Хотя это все еще слишком медленно, мне удалось значительно ускорить синхронизацию с помощью флага --parallel lftp.
вот мой призыв к процессу "толкания":
lftp -e '
set ftp:sync-mode off
open $HOST
user $USER $PASS
mirror --reverse --delete --verbose --parallel $SOURCE $TARGET
bye'