オーベルジーヌ実食レポ 食べ物の鼻塩塩(未だに通じるのかな) オーベルジーヌというカレーをご存知だろうか 都内にあるデリバリー専門のカレー屋で、 ロケ弁などで大人気の本格欧風カレーが楽しめるらしい いいな〜 いいな〜オブザイヤー 都内の奴らはこんな良いモン食ってんのか 許せねえよ………
Twitter API「ChirpUserStreams」 Twitterが新しいAPI「ChirpUserStreams」を発表しました。 このAPIを使うことで、Twitterの自分のメインページで流れてくるようなつぶやき情報が、リアルタイムにストリーミングとして取得できるようになりました。 普通、TwitterのAPIは使用回数に制限があるため、つぶやき情報やユーザーの情報を得ようとして何度もAPIを使っているうちに、制限に引っかかることがしばしばありました。 しかしながら、このストリーミングAPIは基本的にTwitterのサーバにつなぎっぱなしです。 つなぎっぱなしで、次から次へとフォロワーのつぶやき情報、Retweet情報、ダイレクト・メッセージ情報、Favorite情報などが流れてきます。 まるでこのAPIは、情報の波が次から次へと押し寄せてくるかの如くで、何か新しい可能性を感
JavaScriptなどでデータ交換フォーマットとしてJSON形式がある。 最近ではPython,Javaなど主要な言語にJSONを読み書きできるライブラリが揃ってきていて 取り扱いが非常によいです。 PythonでJSONを扱う方法... 入手先 http://sourceforge.net/projects/json-py/ Python 2.6からは標準モジュールになるらしい。 使い方 上記サイトからDLした json-py-3_4.zip を展開して、 json.py をカレントディレクトリに配置。 あとは以下のように使う。 import json data='{"status","OK"}' array=json.JsonReader().read(data) print array['status']
jsonモジュール WebアプリケーションなどではJavaScriptと連携させることが珍しくないと思います。Python3.0および、Python2.6ではJSON(JavaScript Object Notation)をサポートするためのjsonモジュールが標準として追加されました。これにより、手軽にPythonとJavaScript間でデータのやりとりを行うことができるようになりました。 基本的な使い方 jsonモジュールの基本的な使い方はPickleと同じです。文字列にして返すにはdumps、ファイルオブジェクトの場合はdumpを使用します。同様に、文字列からPythonのオブジェクトにするためにはloadsを使用し、ファイルオブジェクトから読み込む場合にはloadを使います。 リスト1 dumpsを使った例 import json s = json.dumps( list(ran
以前に、どうにも検索しにくいTumblrを検索しやすくする「Tumblr Search」というYahoo!Pipesを作っていたのですが、いつからか検索されなくなってオカシイナーなんて思ってました。どうやらTumblrの検索ページがリニューアルされていたようです。 Just two things to note: * To fix the issue with unnecessary unread counts on blogs you’re already following, we now only show unread counts for private blogs. * We’re about to totally overhaul the Directory, along with the Activity page and Tumblarity which power it
Tumblrのサムネイルを作成するスクリプト、Tumblr Thumnailsをリリースしました。 Tumblr Thumnails | Tumblrのサムネイルを作成するスクリプト Tumblrをサムネイル表示するサービスはたくさんあります。以前書いたとおり、自前でJavaScriptを書くだけでも実現できます。ただしこれらのサービスは、TumblrのAPIを用いて画像を並べているだけなので、「直近の画像」以外のサムネイルリストを作成することが出来ません。 それに対してTumblr Thumnailsは該当ユーザのphotoタイプポストを抽出し、条件に従って画像を絞り込んでサムネイルを作成することが出来ます。 例えば僕のTumblr(http://nobodyplace.tumblr.com/)からタグ「dog」が付けられた、2009年4月のサムネイル一覧を表示すると以下のようになります
はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28
tumblrの特定のpostがどうreblogされたかは http://www.tumblr.com/dashboard/notes/$post_id/$token にアクセスすることで知ることができます。 ただいろいろ制約があって$tokenは$post_idのポストをしたひとのアカウントと結びつけられたトークンを設定しないといけなくて、それはそのポストをした人のアカウントでdashboardにログインしていないとわかりませんでした。(参考 自分のTumblrにpostのreblog数を表示させる - cxxの日記 - たんぶら部 - Tumblove -) 実はよく見ると、このtokenはphotoをtumblrにshareしたときにつけられるファイル名の一部として埋め込まれています。そしてpostによらず(一定期間?)共通なので、そのユーザがtumblrにshareした写真がひとつで
Tumblr APIWelcome to the Tumblr API! There isn't anything we enjoy more than seeing talented designers and engineers using Tumblr to invent whole new forms of creative expression. We've put a tremendous amount of care into making this API functional and flexible enough for any projects you throw at it. Drop a line in the GitHub Issues if you have ideas for what could be better, or want to discuss
Tumblr APIというのがありまして、結構簡単に使える模様。kosukekato.comにも直近10件くらいのhu・mi・dorのクリップが表示されたら便利じゃないかと思いやってみました。まず、APIをヘッダで読み込みます。 <script type="text/javascript" src="http://hoge.tumblr.com/api/read/json"></script> で、データを取得して整形してあげます。 nmax = 10; n = tumblr_api_read["posts-total"]; if (n > nmax) n = nmax; for (i = 0; i < n; i++) { switch (tumblr_api_read["posts"][i]["type"]) { case "regular": kind = "text";
やっと時間が取れたので、tumblr API を使った画像の投稿を試しました。 multipart/form-data による photo の投稿のサンプルコードはこんな感じです。 <?php // Report all errors ini_set('error_reporting', E_ALL); // Authorization info $tumblr_email = 'your@mail.address'; $tumblr_password = 'secret'; // Data for new record $post_type = 'photo'; $post_caption = 'キャプション( HTML もオーケー)'; // Image file $filename = "temp/test.jpg"; // Prepare POST data $request_mu
Home > Index > YahooWebAPI"日本語形態素解析"を使って日本語文をひらがなに変換、索引用語のソートに利用 Adobe FrameMakerでの索引作成をしているのだが、 索引用語のソートをしなければならない。 しかし、索引用語は漢字混じりなので、よみ情報を付加しないと、ソートは できないどうすればいいのか(よみ情報を追加するのはとても面倒なので...なんとか楽できないか) という話。 このエントリはPythonを使っていますが、 Javaを使う場合は こちらのエントリ(Yahoo Web API 日本語形態素解析サービスをJavaから使う)をご覧ください。 Yahoo WebAPI 日本語形態素解析があった 日本語形態素分析WebAPI 日本語文を形態素に分割し、品詞、読みがなの付与、統計情報を取得できる機能を提供します。 形態素分析は、GoogleAppEngin
とにかく無価値なBotですが、そんな無価値なBotのためにRackspace Cloudのインスタンス代(約1円/時間)を払うのももったいないと言うことでGoogle App EngineへBotを移行させてみました。 もともとUbuntu Server上で動かしていたBotは Pythonで組まれたスクリプト 形態素解析に MeCab 定期実行はCron という構成でした。 Google App EngineはネイティブにPythonを動作させることの出来る希有なサービスですので移行は非常に単純でした。ほぼコピペ。 このほぼというのがミソで、一部追加しないといけないことがあるそうなので、素直に追加しておきましょう。 ちなみにキモの python-twitter は 0.6 を使用していますが、Api クラスにおいてファイルキャッシュを使っているために、素のままでは GAE で使えません。
もう Twitter には戻れない!! まだ Twitter なの?童貞っぽいね!! 全米ナンバー1ヒット!! で有名な Wassr に匿名で投稿出来る AnonymousWassr というのを作ってみました。 http://gree.appspot.com/ 作成にいたる流れ 朝、おきる。 ↓ なんかやる気が出ないのでグダグダ ↓ 気がついたら Emacs 開いてたのでなんとなく作りはじめる。 ↓ プライベートメッセージ受け取ったら書きこむ的な bot にしよう と思って作りはじめたのにプライベートメッセージ取得の API が無い事に気づく ↓ しょうがなくwebサービスにする事にする。 ↓ サーバ用意するのがメンドイので Google App Engine で作り始める。 ↓ 骨組出来たところで GAE だと urllib 系が使えない事がわかる。 ↓ そろそろやばいので出社する。 ↓
空前の wassr ブームですがみなさんいかがおすごしでしょうか? ところで、wassr には Twitter に無い機能も色々もりだくさんで楽しんでます!! 注目の足跡機能 でも、足跡ついてても購読されてないと凄く寂しいですよね? 気弱な僕は 「あ、興味ないですか?」 「あの一言が駄目だったかなぁ」 「お口にあいませんでしたか?」 「あ、それともシャイで申請できなかったのかな?」 とか考えちゃいます>< でも折角だから仲良くなりたい!! そんなシャイな僕でも折角みてもらったんだから 仲良くなりたい!! 一期一会 だよね!! と思ったら Python で出来ました。 #!/usr/bin/env python # -*- coding: utf-8 -*- import simplejson, urllib2 from pit import Pit print 'start' def ge
今日は奥様とタイ料理&タイ式マッサージの日でした。マッサージはちょっと素晴らしいなあ。 表題のように、全文検索エンジンをGAE上で試作してみました。GAEはGoogle様提供のサービスにもかかわらず「なんで全文検索機能がないねん」という声が上がっていたんですよね。主にtwitter界隈から。 「Introduction to Information Retrieval」という本のドラフトPDFと、たつをさんのところのIIR輪講の資料を参考に作りました。つっても、第1章の一部の知識しか使ってないですが。論理和検索もスキップリストも使ってないし(論理和検索はクエリ式のパーサを書くのが面倒だった)。 import logging import re from urllib import urlencode import wsgiref.handlers from google.appengine
python温泉の成果を発揮すべくGAEでアプリを作って見ようと思った。 きっかけは、なぜか2日の午後からwassrのfollowメールが急増したから。ユーザーが増えて負荷の高くなったwassrが、他の人のヒトコトを見る事が出来ない状態だったので流れもよくわからず、これは、検索作るしかないなと言う事を思いついた。 (アドレスは http://a2c.appspot.com/wassrhub です。 今は、何も表示されません。) とりあえづ、パースとか要らなさそうなPublicのCSVを取得して、適当なFeedテーブルに入れてあげて、あとから、検索出来る様にすることにした。 今回作成したファイルは2つ。main.pyとtop.htmlになる。 作る前からの問題点で、クロールのタイミングを、自発的に出来ないポイのでとりあえづ、リクエストのある度にwassrから取得することにした。完成の暁には、
はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28
■ [Plagger][Wassr]Publish::Wassr をホゲってワサチャンネルに投稿できるようにした 今まで Plagger 使って Wassr に投稿する時には Publish::Twitter のエンドポイントをテキトーに書き換えて使ってたんだけど、チャンネルに投稿するには結構改造しないと駄目かなーって考えていたところに、Wassr 用の API に対応した Net::Wassr と Plagger 用の Publish::Wassr というのを CodeReposで見つけた。 が、CodeRepos においてあった Publish::Wassr はチャンネルには対応していなかったので、Plagger 4級の腕でテキトーに改造してみた。 http://coderepos.org/share/changeset/16821 変更点はなんてことなくて、YAMLの設定から cha
集合知プログラミングのp.349を参考にYahoo!が提供する形態素解析のWebサービスをPythonから使ってみた。形態素解析をWebサービスでやるなんて遅くて使い物にならなくね?ChaSenかMeCab使うよ!って使う前は思ってたのだがやってみたら驚くほど快適。かなり高速に結果を返してくれる。しかも、Yahoo!が作った特別な辞書を使っているらしく、IPAの辞書に比べて固有名詞の抽出精度がかなり高い印象を受けた。使う上での壁は、 Yahoo!デベロッパーネットワークに登録してアプリケーションIDを登録しなくちゃいけない 1日で1つのIPアドレスにつき50000万リクエストまで 1回のリクエストは100KBまで くらいか?Yahoo!のIDを持っていれば、アプリケーションIDの登録はWeb上で簡単にでき、審査もない。 Pythonで使う場合は、HTMLを解析するBeautifulSoup
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く