1

Я хотел бы сохранить текущее состояние общедоступного веб-сайта в качестве (не юридического) доказательства достаточно достоверным способом.

Есть ли сайт / приложение для этого? Как будто они хранят хэш MD5 данного сайта, и я скачиваю сайт, который они видят.

2 ответа2

0

Существует Wayback Machine, но они сохраняют только то содержимое, которое позволяет соответствующий файл robots.txt .

Если вам это нужно, вы можете использовать что-то вроде curl или wget (в Linux я не знаю, доступен ли он изначально в Windows, но они должны быть в CygWin, по крайней мере, один должен быть доступен в MacOS), чтобы получить полную версию. скопируйте (части) интересующего вас веб-сайта и сохраните его (возможно, добавьте заметку с URL-адресом и точные сведения о том, как вы ее получили, заархивируйте ее и подпишите с помощью GnuPG). Затем можно записать его на компакт-диск для безопасного хранения по низкой цене.

0

Скриншоты довольно приличны для нелегальных целей. Им может быть сложнее получить полное содержание сайта. Но если вам в основном нужна определенная страница, обычно достаточно щелкнуть URL-адрес и соответствующий контент, особенно если на изображении видны время / дата.

Есть также несколько приложений, утилит и плагинов для браузера, которые позволяют вам захватывать целую веб-страницу, что может быть полезно, если, как и большинство страниц, содержимое выходит за пределы высоты одного окна. https://www.google.com/search?q=screenshot+entire+webpage

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .