Скачивание всех URL, из файла MY_FILE:
| 1 | wget -i MY_FILE | 
Скачивание в указанный каталог ( -P ):
| 1 | wget -P /path/to/save ftp://ftp.example_site.org/some__file.iso | 
Использование имя username : password на FTP/HTTP:
| 1 2 | wget ftp://username:password@ftp.my_example.org/some__file.iso wget --user=username --password=password ftp://ftp.my_example.org/some__file.iso | 
Загрузка в фоновом режиме ( -b ):
| 1 | wget -b ftp://ftp.my_example.org/some__file.iso | 
Продолжить (-c continue) загрузку ранее не полностью загруженного файла:
| 1 | wget -c https://my_example.org/some__file.iso | 
Скачать страницы с глубиной следования 15, записывая протокол в файл my_log.log:
| 1 | wget -r -l 15 https://my_example.org/ -o my_log.log | 
Скачать содержимое каталога https://my_example.org/custom/my-directory/ и
всех его подкаталогов, не поднимаясь выше по иерархии каталогов:
| 1 | wget -r --no-parent https://my_example.org/custom/my-directory/ | 
Преобразовать ссылки в
относительные для локального просмотра ( ключ -k ):
| 1 | wget -r -l 15 -k https://my_example.org/ | 
Идентификация на сервере:
| 1 2 3 | wget --save-cookies my_cookies.txt \ --post-data 'user=foo&password=bar' \ https://my_example.org/auth.php | 
Скопировать весь сайт целиком:
| 1 | wget -r -l 0 -k https://example.org/ | 
Скачивание галереи картинок с превью:
| 1 2 | wget -r -k -p -l1 -I /images/ -I /thumb/ \ --execute robots=off www.my_example.com/custom_gallery.htm | 
Сохранить веб страницу (как она открывается локально) в текущую директорию
| 1 | (cd cli && wget -nd -pHEKk https://www.my_example.org/page.html) | 
Продолжить скачивание частично скаченного файла
| 1 | wget -c https://www.my_example.com/big.file | 
Скачать множество файлов в текущую директорию
| 1 | wget -r -nd -np -l1 -A '*.jpeg' https://my_example.com/ | 
Отображать вывод напрямую (на экран)
| 1 | wget -q -O- https://www.my_example.org/page.html | grep 'a href' | head | 
Скачать url в 02:00 в текущую директорию
| 1 | echo 'wget url' | at 02:00 | 
Ограничить скорость до 64 КB/s
| 1 | wget --limit-rate=64k url | 
Проверить ссылки на странице
| 1 | wget -nv --spider --force-html -i page.html | 
Оперативно обновлять локальную копию сайта (удобно использовать с cron)
| 1 | wget --mirror https://www.my_example.com/ | 
Используем wildcard для того чтобы скачать несколько страниц
| 1 2 | wget https://my_site.com/?thread={1..100} wget https://my_site.com/files/main.{css,js} | 
Запустить скачивание списка ссылок в 10потоков
| 1 | cat links.txt | xargs -P 10 wget {} | 
Скачать часть сайта
| 1 | wget -r --no-parent -k -l 7 -p -E -nc https://my_site.com/catalog | 





