タグ

wgetに関するpeketaminのブックマーク (5)

  • How to get past the login page with Wget?

    I am trying to use Wget to download a page, but I cannot get past the login screen. How do I send the username/password using post data on the login page and then download the actual page as an authenticated user?

    How to get past the login page with Wget?
  • layer8.sh

    This domain may be for sale!

  • wgetとcurlの根本的な違い - ctrlshiftの日記

    UNIXの代表的なダウンローダにwgetとcurlがあります。 たいていの場合どんなOSでも、どちらかのソフトがインストールされているのではないかと思います。 しかし、この2つのダウンローダの機能は、一見似ているようにも見えますが、実はそれぞれに特徴が見られるので、今日はそれについて解説してみます。 wgetの特徴 wgetのスペルは「片手でもコマンドできる」ということもあって、多くの人から気に入られています。 そんなwgetの特徴として、最も際立っているのが、クローラとして動作可能という点です。 オプションで-rを付加してやることで再帰的に動作し、-lでその深さを指定することができます。 また、-Aや-Rを利用すれば、ダウンロードする拡張子のホワイトリストとブラックリストを指定することも可能です。 つまり、特定のサイト内に散らばって存在するファイルを、拡張子によって指定ダウンロードできる

    wgetとcurlの根本的な違い - ctrlshiftの日記
    peketamin
    peketamin 2014/12/21
    “wget --spider http://www.abc.com/
  • xargsコマンドを使って指定したコマンドを並列実行させる - 技術メモ帳

    あまり知られていないが、GNUのxargsコマンドには、 プロセスの最大数を設定できるオプションというのが用意されている。 コレを使って、プロセスを並列実行させてみよう。 xargs --max-procs=MAX-PROCS -P MAX-PROCS command MAX-PROCSに数字を指定すると、 最大で、その数だけ command プロセスを生成する。 デフォルトは、1プロセスだけになっている。 いくつか例を交えて説明する。 サンプルとして、以下のようにURLが行ごとに記述されたファイルを元に curlをxargsで並列実行して、HTMLデータを取得してみよう。 $ cat ./url_list.txt http://www.google.co.jp/ http://www.yahoo.co.jp/ http://b.hatena.ne.jp/ まず、普通にxargsを使ってc

  • wgetでWebの引っ越し | ゴミ箱の中の雑記帳

    日々の出来事やその感想、くだらない (かもしれない) 衝動買いの顛末、主にICT関連の個人的なメモなど、およそ他人の役には立たないであろうことをつらつらと書き散らかしています。 あるサイトのコンテンツをまとめて別のサイトに移したいような場合、一番楽なのはたぶんrsyncとかでがばっと持って行くこと、という気がするけど、実はwgetを使うのがかなり楽ちんだということが分かった。たまにしかこういうことしないので、すぐにオプションを忘れてmanを通読することになるので、ここに覚え書き。 % wget -rpkK -l2 -nH --cut-dirs=1 http://www.example.com/top/ これで、そのページからリンクされているCSSや画像なんかも含めてごっそり手元に保存できる。ポイントは-r, -k, -p あたり。 -r: リカーシブにリンクをたどってくれる。 -l?でどれ

  • 1