サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ノーベル賞
bsks.sakura.ne.jp
ケータイのメール着信お知らせのようなpush型データ配信は、Webの性質(ユーザが見に行くpull型)上今まで馴染みが薄いように思えます。 そんな中、Webでpush型の動作を行う熱い技術「Webhook」が最近話題です。 はてなブックマークが2009年6月に実装したことで、一躍話題となりました。 Webhookとは、「あるWebサービスで何かをすると『何かした』ことをHTTP等で他のWebサービスに渡すことができる」仕組みのこと。 Webをhook(引っ掛ける)ってことですね。 #フック?ホック?後者では違う意味を想像しますが(笑) で、私がコレを知ったきっかけになったWebサービスがこちら。 hookhub hookhub というのをつくりました - 冬通りに消え行く制服ガールは、夢物語にリアルを求めない。 - subtech 使い方の例が製作者の方のブログ(上記の下のリンク)にありま
Cookieを持っていないとアクセスできないページってありますよね。普通にスクレイプしようとすると、アクセスNG、またはCookie取得を促すページにリダイレクトされたり。 そういったページを取得したくて、Web::ScraperとWWW::Mechanize、HTTP::Cookiesを使って試してみました。 use strict; use warnings; use Web::Scraper; use WWW::Mechanize; use HTTP::Cookies; use URI; my $cookie_file = ‘lwpcookies.txt’; my $uri = “取得したいURL”; my $url = URI->new( $uri ); my $cookie = HTTP::Cookies->new(file => $cookie_file, aut
私のグループでは、サーバの知識、インターネットサービスについて知っていることが重要。 で、今年の新人さんにそのあたりを聞こうと思ったのですが、業務や研修が多忙だったので、質問票形式にしてみました。 完全に自分の思い込みが入ってますが、内容は↓ 【Webサービス、Webサイトについて】 以下のサービス、サイトについて、1~3で答えてください。 1→利用したことがある 2→言葉は知っている 3→聞いたことがない 1.mixi 1 2 3 2.twitter 1 2 3 3.はてなブックマーク 1 2 3 4.Gmail 1 2 3 5.livedoor Reader 1 2 3 6.livedoor クリップ
Webスクレイプ時におけるXPath取得方についてに引き続きの内容になります。 自力で正しいXPathを取得する方法ですが、↓のようにやっていました(今になって「効率悪いなぁ」と思うのですが)。 取得する要素(前回と同じ) 1.firebugのXPathをまずは試してみる(tbody要素は実ソースにない場合は抜く) amazonの例:/html/body/div[4]/table/tr/td[2]/div/table/tr[2]/td[3]/strong/a がNG。 2.NGの場合、遡れるところまで遡る(パスを少しずつ削っていき、実際に出力されるところまで試す) #こちらにあるように、scraperコマンドを利用する amazonの例:/html/bodyまで遡らないと表示できなかった。 ↓ /html/body/div[2]とやったら欲しい部分を(大きくだが)拾えた。 3.出力され
さくらインターネットでのcron設定は基本的にコントロールパネル(Webベースの管理ページ)から実施する…が、コントロールパネルからは最大5つしか登録できません。 ブログの自動更新のために複数のスクリプトを定期的に動作させるためには、5つではどうしても足りないので、コマンドラインで接続(できるのはスタンダードプラン以上)をして、cronを登録する必要があります。 # crontab -e 基本的なことだが、これによって、5つ以上のスクリプトを仕掛けておくことができます。 【登録したスクリプトが動かない場合】 perlスクリプト等で、内部で(自分でインストールした)モジュールを使っている場合などは、cronにスクリプトを登録しただけでは動きません。 なぜなら、自分でインストールしたモジュールへはパスが通っていないから。であればcronの先頭でパスを通してしまいましょう。ついでにシェルやもろも
投稿する内容が決まっているとき。毎回管理画面から同じ内容を貼り付けて「投稿」するのが面倒だと思うことがあります。 ということで、Perlを使ってlivedoor blogに自動投稿できるスクリプトを作ってみました。条件として、 タイトルは固定 本文はhoge.txtの内容を読み込む カテゴリの指定 改行を自動的にするか否か ということに絞って記載しています。 #!/usr/bin/perl use strict; use warnings; use IO::File; use WWW::Mechanize; my $file = “./hoge.txt”; my $sub = “題名”; my $cate = “12345(実際のカテゴリーのoptionの値)”; my $kaigyo = “1(改行する)”; my $start_url = ‘http://member.li
このページを最初にブックマークしてみませんか?
『bsks.sakura.ne.jp』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く