wget
Я пытаюсь использовать Wget загрузить страницу, но я не могу пройти мимо экрана входа в систему. Как отправить имя пользователя/пароль с помощью отправки данных на странице входа, а затем загрузить страницу как авторизованный пользователь?...
Я хотел бы загрузить локальную копию веб-страницы и получить все css, изображения, javascript и т. д. в предыдущих обсуждениях (например, здесь и здесь, оба из которых более двух лет), обычно выдвигаются два предложения:wget -p и httrack. Однако эти предложения не получится. Я был бы очень признателен з...
например,wget https://www.dropbox.com приводит к следующим ошибкам: ERROR: The certificate of `www.dropbox.com' is not trusted. ERROR: The certificate of `www.dropbox.com' hasn't got a known issuer. ...
Я использую wget для загрузки всех изображений с веб-сайта, и он отлично работает, но он хранит исходную иерархию сайта со всеми подпапками, и поэтому изображения разбросаны вокруг. Есть ли способ, чтобы он просто загружал все изображения в одну папку? Синтаксис, который я использую в данный момент: wget -r ...
Я использую Wget для выполнения http-запросов на новый веб-сервер. Я делаю это, чтобы согреть кэш MySQL. Я не хочу сохранять файлы после их подачи. wget -nv -do-not-save-file $url могу ли я сделать что-то вроде -do-not-save-file с wget?...
Я пытаюсь загрузить файлы проекта с помощью wget, поскольку сервер SVN для этого проекта больше не работает, и я могу получить доступ к файлам только через браузер. Базовые URL-адреса для всех файлов одинаковы, как http://abc.tamu.edu/projects/tzivi/repository/revisions/2/raw/tzivi/* Как я могу использ...
Я пытаюсь загрузить тарбол из GitHub с помощью cURL, но это не похоже на перенаправление: $ curl --insecure https://github.com/pinard/Pymacs/tarball/v0.24-beta2 <html><body>You are being <a href="https://nodeload.github.com/pinard/Pymacs/tarball/v0.24-beta2">redirected</a>.</body&g...
Мне нужно получить окончательный url-адрес после перенаправления страницы предпочтительно с помощью curl или wget. например http://google.com может перенаправить на http://www.google.com. содержимое легко получить(например. curl --max-redirs 10 http://google.com -L), но меня интересует только конечный url (...
Я запускаю PHP скрипт через cron с помощью Wget, со следующей командой: wget -O - -q -t 1 http://www.example.com/cron/run скрипт займет максимум 5-6 минут, чтобы сделать его обработку. Будет ли WGet ждать его и давать ему все необходимое время, или это будет тайм-аут?...
Я ищу способ псевдо-паук веб-сайт. Ключ в том, что я на самом деле не хочу контент, а скорее простой список URI. Я могу достаточно близко подойти к этой идее с Wget С помощью --spider вариант, но когда трубопровод, что выход через grep, Я не могу найти правильную магию, чтобы заставить ее работать: wget --sp...