「渡米生活。(日記)」 もう少し日々のツブヤキに近い内容はこっちに移動しました。 プログラム関係、web関係もそのうちこちらに移します。 「the Gerden of Ethel」 我が家のウサギブログ。 ウサギは、家に連れてきて最初の2週間以内に体調を崩す可能性が高い生き物です。飼う前にご一読を! ちょっと待って、ウサギを買う前に…
「渡米生活。(日記)」 もう少し日々のツブヤキに近い内容はこっちに移動しました。 プログラム関係、web関係もそのうちこちらに移します。 「the Gerden of Ethel」 我が家のウサギブログ。 ウサギは、家に連れてきて最初の2週間以内に体調を崩す可能性が高い生き物です。飼う前にご一読を! ちょっと待って、ウサギを買う前に…
PapaTube 向けに開発が進められている「ワーププレイヤで アハ」 ですが、高速ワープ検索の際には連想検索エンジンを利用することになります。 「通常ワープ検索」:人が指定したYouTubeビデオまたは、現在表示中のYouTubeビデオ群からタイトルやコメントをMeCabを使って新たに検索語群を生成する。生成された検索語群をORで接続してYouTubeを再検索する。 「高速(光速)ワープ検索」:人が入力した検索語を「連想検索エンジン」にかけ、返された検索語群をOR接続してYouTubeを再検索する。 そこで、reflexa をpythonから使ってみました。 Windowsマシン上のPython2.4だと問題なく動きます。 ところが、同じスクリプトをDebianのPython2.4で動かすとURLエンコードが別の文字になってしまいます。 たとえば、ユニコードの u’クワガタ’の場合、次の
Download: delicious_mates.py On the social bookmarking site del.icio.us, you can add other users to your network to see their recent bookmarks aggregated on one page. There are two kinds of people in my network: 1. Friends and 2. Users I don’t know personally, but who regularly post interesting links. People who bookmark the same things that I bookmark are likely to have similar interests and are
あぁ、、ライブラリがちゃんとあるよ。 素敵だ。 http://www.python.jp/doc/nightly/lib/pop3-objects.html pythonで、取り合えずメールの受信コードだけ書いてみる。 # -*- coding: utf-8 -*- import poplib,email,time # 基本設定 server = "mail.white-azalea.net" port = 110 user_id = "white-azalea" user_pass = "zzzzzzzzzzzzzz" # サーバに接続 pop3 = poplib.POP3(server,port) pop3.apop(user_id,user_pass) # メール一覧の取得 mail_list = pop3.list() # メールのリストは要素1に入ってるから for mail_i
# -*- coding: utf-8 -*- from lingr import * import re, pickle class MessageHandler: memo = None logpath = '' def handle(self, text): print "handling:" + text return (self.handlePut(text) or self.handleAdd(text) or self.handleGet(text) or self.handleList(text) or self.handleSave(text)) def __init__(self, logpath): self.logpath = logpath try: self.memo = pickle.load(open(logpath)) except: self.memo
PythonでWard法によるクラスタリング Ward法のパフォーマンスと分散処理のための考察 このシリーズの続き。 プログラムを書き直し、真っ当な行列的データを用意したところ、ずいぶん速くなり、588件でも19秒程度となった。(1100件でも2分程度なので、ずいぶんと自分が想定している実用化に近づいたと思う。) しかし、真っ当な行列データにすると、今度は最小距離の探索に9割の時間を取られるようになったため、ここを改造すべきと強く思う。 ここまでくれば、常に行列の成分のソート情報をなんらか記憶しておけばいいように思うのだが、そのソート情報の維持にはまたコストがかかるというジレンマ。 今は可変長の行列として、pythonのdefaultdict(lambda: defaultdict(float))を使っている。これで定義した簡易行列クラスは非常に便利なのでそんなにシビアでない計算の目的には
Pythonでリファレンスを見ながら初めてコーディングしたためクロージャの実装で悩んだ。 最初、C#とかと同じ乗りで def nabeatsu(): value = 1 def reader(): isAho = value % 3 == 0 or str(value).find('3') >= 0 isDog = value % 5 == 0 if isAho: print 'あほ' if isDog: print 'わん!' if not isAho and not isDog: print value value = value + 1 #5/10まで間違ったサンプルになっていたのを修正(5/11) return reader runner = nabeatsu() for value in xrange(1,40,1): runner() としたら、runner()を実行したときに
「Pythonで外部プロセスを起動して出力と戻り値を処理する」で扱ったsubprocessモジュールによる外部プロセスの起動のコードをもとに、外部プロセスをバックグラウンドで実行してみるテストを行った。 ここで言うバックグラウンド実行とは、プログラム中で処理を並行して実行する「マルチスレッド」を利用して実行することを示す。 なぉ、下に書いている例はチュートリアルのサンプルコードを参考にしている。 (2014/11/9)ドキュメントのリンク先を修正し、サンプルコードの内容もPython 3で動作するように修正した。 threading.Threadオブジェクト threading.Threadを直接使用する場合 threading.Threadの子クラスを作成する場合 threading.ThreadオブジェクトPython上でマルチスレッド処理を行うのに便利なのが、threadingモジュ
Javaの試験勉強に集中できないbonlifeです。以下の記事を見て、なんかあったよな、と思ってlxmlのobjectifyを試してみました。 XMLをPythonオブジェクトに変換するところで悩んでしまって、ちょっと奇妙な実装になっています。 id:tomoemon:20071019:p1 あたりを参考にさせていただきましたよ! In [1]: from lxml import objectify In [2]: import urllib2 In [3]: url = "http://api.search.yahoo.co.jp/WebSearchService/V1/webSearch?appid=YahooDemo&query=%e6%b2%96%e7%b8%84&results=2" In [4]: root = objectify.parse(urllib2.urlopen(u
備忘録:PythonでHTTPのDigest認証を行うをほとんどそのまま。忘れないようにメモ。Python Challengeのある問題で大変役立った。 import urllib2 top_url = "www.foo.org" url = "www.foo.org/bar.html" username = "user" password = "pass" passman = urllib2.HTTPPasswordMgrWithDefaultRealm() passman.add_password(None, top_url, username, password) authhandler = urllib2.HTTPBasicAuthHandler(passman) opener = urllib2.build_opener(authhandler) urllib2.install_
bonlifeです。誰かに教えられるほどPython詳しいわけじゃないですが、lxmlのobjectifyはやっぱり便利だよ、ということを伝えたい! だけどもっとレスポンスが速い方法があるはず。 誰か教えてw まとめ記事はこちら。(記事中のquoteはurllib2.quoteっぽい。) lxmlのobjectifyを使うとかなり使いやすいオブジェクトが生成されます。最初(objectify.parse)のレスポンスは結構遅そうですが…。 import urllib2 from lxml import objectify host = u'http://webservices.amazon.co.jp/onca/xml?Service=AWSECommerceService' id = u'&SubscriptionId=AWSのアクセスキー' ope = u'&Operation=Ite
ネタがないので昔書いたスクリプトを貼ってみます。 mixiの更新情報をRSSで取得したいなーと思って、mixipressを使ってみたところ動かなかったので、mixi station用APIを使って簡単に書きました。認証にはcookieを使ってます。 #!/usr/bin/env python # -*- coding: euc-jp -*- import urllib, urllib2, cookielib username = 'mixiのメールアドレス' password = 'mixiのパスワード' mixiid = 'mixiのid(プロフィール欄にある475205みたいな数字)' cj = cookielib.CookieJar() opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cj)) opener.addh
先週末に酒のいわせさんに寄ったときに、yellow閉じちゃうらしいんですねー的ナ話をしたんですが、そういえば、旦那さんのほうのはyahooブログなんでRSS登録してあるけど、奥さんのほうのはrssがないから取りこぼしがあるかもん。これはまったくもっていかがなものかと自分用RSSを用意することにした。 BeautifulSoupとElementTreeで。 XML::RSSのpython版はないかなーと探してみたのだけど、テンプレート使ったりしてて丁度いいのが見当たらなかったのでElementTreeを選択した。 #!/usr/bin/env python # -*- coding:utf-8 -*- import urllib2 import sys,re from BeautifulSoup import BeautifulSoup from datetime import dateti
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く