なでしこジャパンやら政変やらで一喜一憂していた夏も終わりますね。という訳でこんにちは。今年の夏もバカンスともロマンスとも縁の無かった Mariyudu@セミの抜け殻状態、です。 さて先日、Web ページスクレイピング処理関連の作業をしていて、前に某ブログさんで知った ScraperWiki なるサービスを思い出し、道草というか、少し試してみることにしました。 ScraperWiki とは ScraperWiki ってのは、文字通りスクレイピングプログラムを共有することで、Web 上にある有用なデータを皆で共有して幸せになろう、って主旨のサービスらしいです(About ページを参照のこと)。以下のような特徴があります。 Web ページ内のエディタ上でスクレイピング処理のプログラムを書いてトライ&エラーで実行きる。 プログラム言語は Python, Ruby, PHP から選べて、それぞれスク
![ScraperWiki を使って勝手 RSS フィードしてみた - 旧・私と私の猫の他は誰でも隠し事を持っている](https://cdn-ak-scissors.b.st-hatena.com/image/square/cb5a31e6625272af545e6485508bcbbea04cfa35/height=288;version=1;width=512/https%3A%2F%2Fcdn-ak.f.st-hatena.com%2Fimages%2Ffotolife%2FM%2FMariyudu%2F20110903%2F20110903164939.png)