fromnet | ftp | ftpserv | httpserv | ip | netlog | ping | pingdiff | tcpdump | udpdump | udpsend | web | wget | Команда: wget sfk wget [параметры] URL-адрес [outfile|outdir] [параметры] загружать контент с заданного URL-адреса http://. можно указать имя выходного файла или каталог. существующие выходные файлы перезаписываются без запроса. опции -user=u и -pw=p установить базовую HTTP-аутентификацию, также можно использовать глобальные опции -webuser, -webpw Обратите внимание, что пароли не шифруются при передаче, за исключением случаев использования SFK Plus с соединениями HTTPS -proxy hostname:port прокси-сервера если внутри локальной сети часто требуется подключение через прокси, в качестве альтернативы установите переменную среды SFK_PROXY: set SFK_PROXY=myproxyhost:8000 чтобы узнать, какой прокси использует ваш браузер, см. - Firefox: инструменты/параметры/дополнительно/сеть/настройки - IE: инструменты/интернет-опции/подключения/настройки локальной сети -path2name включает веб-путь в сгенерированное выходное имя для создания уникальных имен при нескольких загрузках, этот параметр используется по умолчанию при цепочечной обработке -fullpath воссстанавливает весь веб-путь в выходном каталоге -nodom не включать доменное имя в выходное имя -nopath не включать информацию о пути и домене в выходных именах. не будет работать, если URL не содержит никакого относительного имени файла -quiet или -noprog не показывает индикатор загрузки -quiet=2 не показывать информационную строку "done" -addext всегда добавлять расширение имени файла, например .txt, .html или .dat, даже если URL-адрес не имеет такого расширения -timeout=n ждать до n мс для данных -verbose сообщить текущие настройки прокси, если они есть -noclose не отправлять заголовок «Connection: close» * автоматическое расширение имен 'http://' добавляется автоматически, короткие IP-адреса вроде .100 расширяются как 192.168.1.100 в зависимости от вашей подсети * многострочные параметры в кавычках поддерживаются в скриптах с использованием полной отделки, см. "sfk script" * ограничения хотя sfk wget может загрузить список URL-адресов, это не настоящий загрузчик/архиватор веб-страниц, так как для этого потребуется преобразование html-страниц для адаптации содержащихся ссылок * поддержка HTTPS загрузка SSL/TLS поддерживается с помощью SFK Plus см. http://stahlworks.com/sfkplus * цепная поддержка поддерживается цепочка имен выходных файлов. * смотрите также sfk web отправляет простой веб-запрос с выводом результата на терминал curl мощный инструмент веб-запросов и загрузки * веб-ссылка http://stahlworks.com/sfk-wget Примеры sfk wget -proxy myproxy:8000 http://foobar.com/x.zip foo.zip скачать x.zip и записать содержимое в файл foo.zip, подключение через прокси-сервер myproxy на порт 8000 sfk filt urls.txt +wget mydir если urls.txt содержит список http:// URL-адресов, то загрузит его и скачает все содержимое в mydir. Выходные имена будут включать информацию о пути, найденную в исходном URL-адресе sfk filt urls.txt +wget -fullpath mydir +list -big то же, что и выше, но создает всю структуру dir, а затем список самых больших файлов из загруженных sfk wget -quiet=2 server/info.xml tmp.txt +ffilter -nofile загрузить info.xml с сервера, записать его как файл tmp.txt и вывести содержимое tmp.txt на терминал без каких-либо сообщений о состоянии или информации об имени файла |