[PR] 株式投資 サイトについて あとで見るver
| heteml.jp へ戻る | ヘテムルのコントロールパネルへのログインはこちらから行えます。 まだアカウントをお持ちでない方はこちら。 ヘテムルID パスワード 次回から自動的にログインする パスワードを忘れた方はこちら MAIL メールアカウントの作成や メーリングリストやメールマガジンの管理。 WEB ディスク使用量やアクセスログの取得 OTHER お支払いのお手続き、各種パスワードの変更、 最新のニュースなど。 EC支援 ECサイト構築 リピート通販 オリジナルグッズ作成・販売 ハンドメイドマーケット ホスティング レンタルサーバー 高速オールSSDレンタルサーバー ドメイン取得 簡単ホームページ作成 アルバム・写真共有 その他 チーム・教室のための連絡集金 お問い合わせ対応AI導入支援 金融支援 クリエイター向け金融支援 heteml Copyright © 2005 -
RakuAPI - 楽天市場 非公式ウェブサービス という楽天の非公式 API のライブラリを作るのが流行みたいなので作ってみました。ただそれだけでは面白くないので、最近自分が TDD でライブラリ作るときの方法も軽くご紹介します。 まずはインターフェイスの構想 何はともあれ、どんなインターフェイスを定義して、どんな結果が返ってくるのかがイメージできないとライブラリは作りにくいです。というわけでざっくり最初に構想を練ります。 RakuAPI の場合は WebAPI がシンプルに使えて良い感じなので、構想を練るのに考え込む、というのはありませんでした。 そんなんで、RakuAPI.new でインスタンスを取得して、search メソッドで第一引数に検索文字列、第二引数はオプションでジャンルやプライスを渡せるように、結果は配列にStruct が格納されてる感じにしよう。と考えました。 テストを
必要なもの † Ruby 1.8.2 1.8.4 Iconv 1.8.2 だと RSS::DublinCoreModel? に dc_subjects がないのでバージョンを上げた。 ↑ ラッパークラス サンプル † (get_rss.rb) require 'rss/1.0' require 'open-uri' class RssSite attr_accessor:url attr_accessor:content attr_accessor:rss def initialize(url) @url = url end def get() @content = "" open(url) {|u| @content = u.read } parse() end def parse() begin @rss = RSS::Parser::parse(content) rescue RSS
http://blog.labnotes.org/category/scrapi/ ruby でスクレイピングして web の情報を取得するのには、今まで正規表現か xpath でやってたので、わりと面倒でした。で、ふと scrAPI というスクレイピングツールキットを知ったのですが、これがかなり便利そう。 このツールキットを使うと、CSS3 なセレクタを記述することで、要素を取得することができます。たとえばとあるサイトのリンクを全部取得したければ、 require 'rubygems' require 'scrapi' require 'open-uri' require 'nkf' require 'pp' $KCODE = 'u' links = Scraper.define do process "a[href]", "urls[]"=>"@href" result :urls e
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く