Загрузить контент с заданного URL-адреса http://.
Можно указать имя выходного файла или каталога.
Существующие выходные файлы перезаписываются без запроса обратного запроса
- IE: инструменты/свойства Интернета/подключения/настройки локальной сети
-path2name
- включить веб-путь в сгенерированное выходное имя,
чтобы создавать уникальные имена при нескольких загрузках.
Эта опция используется по умолчанию при обработке цепочкой.
-fullpath
- воссоздать весь веб-путь в выходном каталоге
-nodom
- не включать доменное имя в выходное имя
-nopath
- не включать информацию о пути и домене в именах выходных данных.
Не будет работать, если URL не содержит относительного имени файла
-quiet, -noprog
не показывает индикатор хода загрузки
-quiet=2
- не показывать информационную строку "готово"
-addext
- всегда добавлять расширение имени файла, например .txt, .html
или .dat, даже если URL-адрес не имеет такого расширения
-timeout=n
- ожидание данных до n мс
-verbose
- сообщить текущие настройки прокси, если таковые имеются
-noclose
- не отправлять заголовок "Connection: close"
Автоматическое расширение имени
http:// добавляется автоматически.
Короткие IP-адреса, например, 100, расширяются до 192.168.1.100 в зависимости от вашей подсети.
Многострочные параметры в кавычках поддерживаются в скриптах с использованием полной обрезки.
Введите "SFK script" для получения подробной информации
Ограничения
хотя sfk wget может загружать список URL-адресов, он не
настоящий загрузчик/архиватор веб-страниц, так как для этого потребуется
преобразование HTML-страниц для адаптации содержащихся в них ссылок
Поддержка HTTPS
Загрузки SSL/TLS поддерживаются SFK Plus.
Подробнее читайте в разделе: stahlworks.com/sfkplus
Поддержка цепочек
Поддерживается цепочка имен выходных файлов
СМОТРИТЕ ТАКЖЕ
sfk web
Отправить простой веб-запрос с помощью Instant с выводом результата на терминал
curl
Мощный инструмент веб-запросов и загрузки
ПРИМЕРЫ
sfk wget -proxy myproxy:8000 http://foobar.com/x.zip foo.zip
скачать x.zip, записав содержимое в файл foo.zip, подключение через прокси-сервер MyProxy на порту 8000
sfk filt urls.txt +wget mydir
если urls.txt содержит список http:// URL, загрузить его
и загрузить все содержимое в mydir. Выходные имена будет включать информацию о пути, найденную в исходном URL-адресе
sfk filt urls.txt +wget -fullpath mydir +list -big
то же самое, что и выше, но создать всю структуру dir, а затем перечислить самые большие файлы из загруженных
sfk wget -quiet=2 server/info.xml tmp.txt +ffilter -nofile
Загрузить info.xml с сервера, записать его в файл tmp.txt и мгновенно распечатать содержимое tmp.txt
в терминале без каких-либо сообщений о состоянии или информации об именах файлов