
fromnet | ftp | ftpserv | httpserv | ip | netlog | ping | pingdiff | tcpdump | udpdump | udpsend | web | wget | Команда: wget sfk wget [параметры] URL-адрес [outfile|outdir] [параметры]
загружать контент с заданного URL-адреса http://.
можно указать имя выходного файла или каталог.
существующие выходные файлы перезаписываются без запроса.
опции
-user=u и -pw=p установить базовую HTTP-аутентификацию,
также можно использовать глобальные опции -webuser, -webpw
Обратите внимание, что пароли не шифруются при передаче,
за исключением случаев использования SFK Plus с соединениями HTTPS
-proxy hostname:port прокси-сервера
если внутри локальной сети часто требуется подключение через прокси,
в качестве альтернативы установите переменную среды SFK_PROXY:
set SFK_PROXY=myproxyhost:8000
чтобы узнать, какой прокси использует ваш браузер, см.
- Firefox: инструменты/параметры/дополнительно/сеть/настройки
- IE: инструменты/интернет-опции/подключения/настройки локальной сети
-path2name включает веб-путь в сгенерированное выходное имя
для создания уникальных имен при нескольких загрузках,
этот параметр используется по умолчанию при цепочечной обработке
-fullpath воссстанавливает весь веб-путь в выходном каталоге
-nodom не включать доменное имя в выходное имя
-nopath не включать информацию о пути и домене
в выходных именах. не будет работать, если URL
не содержит никакого относительного имени файла
-quiet или -noprog не показывает индикатор загрузки
-quiet=2 не показывать информационную строку "done"
-addext всегда добавлять расширение имени файла,
например .txt, .html или .dat, даже если URL-адрес
не имеет такого расширения
-timeout=n ждать до n мс для данных
-verbose сообщить текущие настройки прокси, если они есть
-noclose не отправлять заголовок «Connection: close»
* автоматическое расширение имен
'http://' добавляется автоматически,
короткие IP-адреса вроде .100 расширяются как 192.168.1.100
в зависимости от вашей подсети
* многострочные параметры в кавычках поддерживаются в скриптах
с использованием полной отделки, см. "sfk script"
* ограничения
хотя sfk wget может загрузить список URL-адресов, это не
настоящий загрузчик/архиватор веб-страниц, так как для этого потребуется
преобразование html-страниц для адаптации содержащихся ссылок
* поддержка HTTPS
загрузка SSL/TLS поддерживается с помощью SFK Plus
см. http://stahlworks.com/sfkplus
* цепная поддержка
поддерживается цепочка имен выходных файлов.
* смотрите также
sfk web отправляет простой веб-запрос с выводом результата на терминал
curl мощный инструмент веб-запросов и загрузки
* веб-ссылка
http://stahlworks.com/sfk-wget
Примеры
sfk wget -proxy myproxy:8000 http://foobar.com/x.zip foo.zip
скачать x.zip и записать содержимое в файл foo.zip,
подключение через прокси-сервер myproxy на порт 8000
sfk filt urls.txt +wget mydir
если urls.txt содержит список http:// URL-адресов,
то загрузит его и скачает все содержимое в mydir.
Выходные имена будут включать информацию о пути,
найденную в исходном URL-адресе
sfk filt urls.txt +wget -fullpath mydir +list -big
то же, что и выше, но создает всю структуру dir,
а затем список самых больших файлов из загруженных
sfk wget -quiet=2 server/info.xml tmp.txt +ffilter -nofile
загрузить info.xml с сервера, записать его как файл tmp.txt
и вывести содержимое tmp.txt на терминал без каких-либо сообщений
о состоянии или информации об имени файла |
![]() |