Скачивание всех URL, из файла MY_FILE:
1 |
wget -i MY_FILE |
Скачивание в указанный каталог ( -P ):
1 |
wget -P /path/to/save ftp://ftp.example_site.org/some__file.iso |
Использование имя username : password на FTP/HTTP:
1 2 |
wget ftp://username:password@ftp.my_example.org/some__file.iso wget --user=username --password=password ftp://ftp.my_example.org/some__file.iso |
Загрузка в фоновом режиме ( -b ):
1 |
wget -b ftp://ftp.my_example.org/some__file.iso |
Продолжить (-c continue) загрузку ранее не полностью загруженного файла:
1 |
wget -c https://my_example.org/some__file.iso |
Скачать страницы с глубиной следования 15, записывая протокол в файл my_log.log:
1 |
wget -r -l 15 https://my_example.org/ -o my_log.log |
Скачать содержимое каталога https://my_example.org/custom/my-directory/ и
всех его подкаталогов, не поднимаясь выше по иерархии каталогов:
1 |
wget -r --no-parent https://my_example.org/custom/my-directory/ |
Преобразовать ссылки в
относительные для локального просмотра ( ключ -k ):
1 |
wget -r -l 15 -k https://my_example.org/ |
Идентификация на сервере:
1 2 3 |
wget --save-cookies my_cookies.txt \ --post-data 'user=foo&password=bar' \ https://my_example.org/auth.php |
Скопировать весь сайт целиком:
1 |
wget -r -l 0 -k https://example.org/ |
Скачивание галереи картинок с превью:
1 2 |
wget -r -k -p -l1 -I /images/ -I /thumb/ \ --execute robots=off www.my_example.com/custom_gallery.htm |
Сохранить веб страницу (как она открывается локально) в текущую директорию
1 |
(cd cli && wget -nd -pHEKk https://www.my_example.org/page.html) |
Продолжить скачивание частично скаченного файла
1 |
wget -c https://www.my_example.com/big.file |
Скачать множество файлов в текущую директорию
1 |
wget -r -nd -np -l1 -A '*.jpeg' https://my_example.com/ |
Отображать вывод напрямую (на экран)
1 |
wget -q -O- https://www.my_example.org/page.html | grep 'a href' | head |
Скачать url в 02:00 в текущую директорию
1 |
echo 'wget url' | at 02:00 |
Ограничить скорость до 64 КB/s
1 |
wget --limit-rate=64k url |
Проверить ссылки на странице
1 |
wget -nv --spider --force-html -i page.html |
Оперативно обновлять локальную копию сайта (удобно использовать с cron)
1 |
wget --mirror https://www.my_example.com/ |
Используем wildcard для того чтобы скачать несколько страниц
1 2 |
wget https://my_site.com/?thread={1..100} wget https://my_site.com/files/main.{css,js} |
Запустить скачивание списка ссылок в 10потоков
1 |
cat links.txt | xargs -P 10 wget {} |
Скачать часть сайта
1 |
wget -r --no-parent -k -l 7 -p -E -nc https://my_site.com/catalog |