ブックマークしました ここにツイート内容が記載されます https://b.hatena.ne.jp/URLはspanで囲んでください Twitterで共有
Plagger::Plugin::Notify::Jabber へ向けての第一歩。とりあえず、Net::Jabber で接続して切断するだけのところまで動いたっぽい。 #!/usr/bin/perl use strict; use warnings; use Net::Jabber qw(Client); my $client = Net::Jabber::Client->new( debuglevel => 1, debugfile => "debug.log", ) or die "can't create Net::XMPP::Client instance."; my $ok = $client->Connect( hostname => q{jabber.org}, username => q{ziguzagu-bot}, passowrd => q{******}, ) or
しょこたんが出るTV番組の情報をGoogle Calendarに入れておくことで見逃さないようにするテスト【その2】 前回作った時は結構簡単に実装できたもんだから「すぐ行ける!」と思いつつハマった。 関連エントリ:しょこたんが出るTV番組の情報をGoogle Calendarに入れておくことで見逃さないようにするテスト その時はRule::Deduptedの存在を知らなかったので、dc:timeが「放送開始時刻」じゃぁFreshが使えなくて意味ないな、という結論だった。 で、最近になってGoogle Code Hosting SVN -> TwitterというPlaggerレシピを書く過程で発見したRule::Dedupedって便利じゃん!ってのに今さら気づき、早速使ってみたという訳。 Freshの代わりにDBで管理するDedupedを使えば、ちゃんと Plagger::Plugin::F
del.icio.us に登録したエントリをはてブにシンクロするためのレシピ。1日1回動かすような用途を想定しています。del.icio.us に登録した順番ではてブに登録されるように del.icio.us の RSS のエントリーの順序を逆転させるためのフィルタ (Reverse) を用意しました。del.icio.us の RSS を入力としているので、登録エントリ数が多いと RSS から漏れてしまうエントリが発生するという問題があります。del.icio.us API で前回取得したエントリー以降を取得できれば完璧なのですが、とりあえず運用でカバーしています。(私は1日30エントリもブックマークしないので....) global: # plugin_path: **** # assets_path: **** timezone: Asia/Tokyo log: level: inf
2006年08月06日 M:i:IIIが原作を思わせてよかった件と前田有一用 EntryFullText ミッション・インポッシブル3を見てきました。昔お昼に再放送されてた、原作の「スパイ大作戦」が大好きなぼくにとっては、1や2は(音楽だけいっしょの)原作とは全然違うただのトムクルーズプロモムービーで、まあおもしろいんだけど、 MISSION:IMPOSSIBLE をうたうことに腹立たしい限り。 ただ、今回は前田有一先生が このパート3は、ジョン・ウー監督のお気楽アクション= M:i-2 の反省を踏まえてか、オリジナルのテレビ版の魅力であった、「スパイ仲間のチームプレイ」要素をやや濃くさせたものになっている。 と言っていたので、かなり期待して見に行きました。 実際、バチカンのシーンが、かなり原作を思わせる内容で満足満足。トムクルーズがジムとローラン2役をやっているけど、配役もだいたい原作通
しょこたん☆ぶろぐの更新頻度はすごいなぁ。 テレビにも(ほぼ)毎日出てるし、漫画書いたりCD出したりととても忙しいはずなのに、いったいいつ更新してるんだろう。そもそも、ちゃんと寝てるんだろうか? というのが気になったので、一個一個のエントリーの更新時刻を拾い読みしてったんだけど、エントリーが多すぎて何が何だかわかんね(w だからシステム的にしょこたん☆ぶろぐの更新時間を「可視化」してみた。 これで「いつ更新」が一目で把握できるかなぁ、と。 例えばこれは1/18(金)の午前0:00から15:00くらいまで。 0:28から01:49までが更新祭り、終わったかと思ったら03:41まで更新が続いて、その後10:00amくらいまでは普通に寝てそうな感じ。んでもって11:00くらいから活動再開。人並みの睡眠時間は確保できてそう。 仕組み的には簡単で、単にPlaggerでしょこたん☆ぶろぐのRSSを受信
実際に取得した画像がどんなことになっているか把握したかったので、画像2100枚をHTMLで出力してみました。75x75の画像を読み込んでおり、画像をクリックするとlightboxして元のサイズの画像にアクセスします。下のtitleをクリックするとFlickrのページに飛びます。軽くなるように気をつけましたが、それでも結構CPUパワーを使うので、遅いPCで開くときは気をつけてください。 http://choichoi.sakura.ne.jp/idols/ こうやって眺めてみるとFlickrにあがりやすいアイドルとあがりにくいアイドルというのがいるようです。小倉優子は500枚取得しても、まだまだたくさん画像があるようでした。さすがグラビアを終わらせたアイドルです。この辺りの考察はまた後で行いたいと思います。 [追記]アイドルの名前のスペルミス、画像を取得できないアイドルの整理し、データを取り
日曜は、Plagger を初めてちゃんとさわってみました。 Plagger の概略は、miyagawaさん自身による このYAPC::NAのPDF がわかりやすいです。要するに、 『ネットからフィードを集める → (ごにょごにょする) → 出力する』をするものです。 この「集める」や「ごにょごにょ」や「出力」の部分に、ブロックを重ねるようにしてモジュールを重ね、自分の好きな起承転結にできるという点が実に Perl ぽい着想です。風がふけば桶屋がもうかるフレームワークと呼んでいます。 Subscription::Bloglines / Publish::Gmail まあ、まずは普通に使ってみようということで、「Bloglines から集める」→ (エントリごとに分割、RSS 広告除去、本文の内容をできるだけ収集→ Bloglines、Delicious へのリンク付与、はてブ登録数付与) →
Plaggeryaml で簡単なレシピを書ける CustomFeed プラグインを書いてみました。P::P::C::GoogleNews や P::P::F::EntryFullText のコードをベースにしました。名前は、適当に Plagger::Plugin::CustomFeed::Config としました。Plagger::Plugin::CustomFeed::Config package Plagger::Plugin::CustomFeed::Config; use strict; use base qw( Plagger::Plugin ); use DirHandle; use YAML; use Encode; use HTML::TokeParser; use Plagger::UserAgent; use Plagger::Util qw( decode_conte
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く