Я пытаюсь зайти на сайт с помощью следующей команды, но что-то не хватает:

wget --no-check-certificate --save-cookies cookies.txt --keep-session-cookies --post-data "loginId=Email%40gmail.com&password=PASSWORD&submit-btn" "https://login.aliexpress.com/"

Что не так с этой командой?

%40 для @

Я почти уверен, что ему не хватает токена и реферера, но все, что кажется слишком сложным для воспроизведения.

Есть ли в браузере плагин, куда вы можете добавить список URL и загрузить страницу каждого URL в этом списке?

Необходимо сохранить куки / сеанс браузера (я войду из браузера)

Спасибо!

1 ответ1

1

Поскольку вопрос помечен как "curl", я предполагаю, что команда curl также приемлема. Делать эти вещи методом проб и ошибок может быть утомительно, поэтому я рекомендую открыть страницу входа в Firefox, затем открыть инструменты разработчика, перейти на вкладку "Сеть", нажать "Сохранять журналы" на вкладке "Сеть", а затем нажать кнопку входа. кнопка на странице. Все сетевые доступы будут отображаться один за другим, и вы можете щелкнуть правой кнопкой мыши любой из них и выбрать "Копировать" -> "Копировать как cURL". Вы получите команду curl в вашем буфере вставки, которая будет воспроизводить точно такой же запрос, который был выполнен Firefox. (Если ваша версия curl немного старше, возможно, придется скорректировать команды curl.)

Chrome также обладает этими функциями, с той лишь разницей (в текущих стабильных версиях), что "Persist Logs" называется "Сохранять журнал".

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .