タグ

2012年5月19日のブックマーク (5件)

  • UNIX/コマンド/テキスト処理/sed - 会津大学UNIXウィキ

    % sed 's/ika/tako/' [filename] % sed 's/ika/tako/' [in_file] > [out_file] % sed -i 's/ika/tako/g' [filename] % cat [filename] | sed 's/ika/tako/' % sed 's/ika/tako/g' [filename] s/[regexp]/[replacement]/[flags] % sed 's/.*\(apple|orange\)/\1/g' % sed 's/\(apple|orange\)\1/hogehoge/g' % ls | xargs sed -i.bak 's/[regexp]/[replacement]/g' % grep -l '[regexp]' *.txt | xargs sed -i.bak 's/[regexp]/[rep

    moerrari
    moerrari 2012/05/19
    ディレクトリ階層を再帰的に辿って複数ファイルの文字列置換をする場合。findで対象拡張子のファイルを絞りその結果に対してsedを実行する。% find . -name '*.txt' | xargs grep -l '[regexp]' | xargs sed -i.bak 's/[regexp]/[replacement]/g'
  • なまけものになりたくて - wget全オプション日本語訳

    まずはwgetをダウンロードしてくる。いくつもリンクがあるが、特にこだわりが無いなら「If you don't know which version to get: GET」以降のlink(2008/06/16日現在は「THIS ONE:1.10.2 complete」)からダウンロードして展開する。(ここにwgetを使うのに必要なものが全て含まれている) ただ使うだけなら、コマンドプロンプトを立ち上げてwgetが置いてあるフォルダに移動し、「wget url」とすればダウンロード可能(例 「wget http://yagi.s321.xrea.com/」)。 出来る事としては大雑把に言うと、該当サイトを全てダウンロードし、その内部リンクを全てローカルのものに書き換える、ダウンロード対象ファイルを外部ファイルに記述する、proxy(プロキシ認証でも)を使用する、事も可能。詳細は以下のオプシ

    moerrari
    moerrari 2012/05/19
    ウェブサイト全体のダウンロードにも使えるwgetの全オプションの日本語訳。
  • http://hiropo.co.uk/archives/894

    moerrari
    moerrari 2012/05/19
    ウェブサイトのメンテナンス時間の暫定公開時やPHPを使用できないサーバ用途に。wgetは-e robots=offのオプションを付けないと落とせない。
  • wgetでの一括ダウンロードが便利な件 – taichino.com

    wgetというと今までtar玉のダウンロードとdynamicDNSの更新用アクセス位にしか 使ってなかったのですが、実はかなり高機能でもっと使い道があるという事で少しだけまとめておきます。 特に優秀な機能が再帰取得で、あるページを指定した時に、そのページに含まれているリンク先も再帰的に取得できます。 # http://sports.yahoo.co.jpを再帰ダウンロード % wget -r http://sports.yahoo.co.jp これでhttp://sports.yahoo.co.jpからたどれる同一ドメイン上のすべてのファイルを取得できますが、大抵の場合、全部は必要ないので再帰回数を指定できます。オプションは-lに回数を続けます。 # 再帰回数1回を指定 % wget -r -l 1 http://sports.yahoo.co.jp またダウンロードしたいファイルの拡張子

    moerrari
    moerrari 2012/05/19
    ウェブサイト全体をダウンロード。メンテナンス時の暫定公開やPHPが使用できないサーバ用。-e robots=offを付けないとダウンロードできない。-rで再帰的。-r -l 1のオプションを必ず付ける(ローカルホストは不要)
  • ウェブサイト全体をダウンロードするソフトのまとめ

    ウェブサイト ( ホームページ ) 全体をダウンロードするソフトのまとめ。 サイトマップを作る時とか、既存サイトのページ数をカウントする時など、お世話になります。 DeepVacuum 1.65 : Mac 用シェアウェア。wget ベース。HTML ファイルからリンクしている CSS ファイルはダウンロード可能。CSS ファイルからリンクしている CSS ファイルはダウンロード不可。 HTTrack Website Copier 3.41-3 : Windows 用フリーウェア。高機能。良さげ。 WebCopier : Mac, Windows 用シェアウェア。未試用。 Web Devil : Mac 用シェアウェア。未試用。 [SiteSucker](http://www.sitesucker.us/) : Mac 用寄付ウェア。SiteSucker 2.1 を使ってみたんだが、CSS

    ウェブサイト全体をダウンロードするソフトのまとめ
    moerrari
    moerrari 2012/05/19
    webautoやgethtmlなどウェブサイト全体をダウンロードするソフトのまとめ