Grow your audience. Get more clients.Create a page to promote who you are and what you do in one link.

Grow your audience. Get more clients.Create a page to promote who you are and what you do in one link.
This document describes the current stable version of Celery (5.5). For development docs, go here. Celery - Distributed Task Queue¶ Celery is a simple, flexible, and reliable distributed system to process vast amounts of messages, while providing operations with the tools required to maintain such a system. It’s a task queue with focus on real-time processing, while also supporting task scheduling
Welcome to PyCUDA’s documentation!¶ PyCUDA gives you easy, Pythonic access to Nvidia’s CUDA parallel computation API. Several wrappers of the CUDA API already exist–so why the need for PyCUDA? Object cleanup tied to lifetime of objects. This idiom, often called RAII in C++, makes it much easier to write correct, leak- and crash-free code. PyCUDA knows about dependencies, too, so (for example) it w
The only one true way to run WSGI apps through fastcgihttp://pypi.python.org/pypi/superfcgi/superfcgiは「WSGIアプリケーションをFastCGIで動かすための唯一正しい方法」という意欲的なライブラリ。superfcgiはfastcgi.comが提供しているfastcgiappというCライブラリを使っているので、あらかじめインストールが必要。Fedoraの場合は、 $ sudo yum install fcgi-devel fastcgiappをインストールしたならば、 $ pip install superfcgi superfcgiはDjango用のコマンドも用意しているので、settings.pyのINSTALLED_APPSに、 INSTALLED_APPS = ( 'superfc
pythonからコマンド呼んでその返り値も利用して何かしたくなった。 sh使った方が良いとかそういう話もありますが、まぁpythonで。 commandsという便利そうな野があったので使ってみました。 サンプルで、適当な範囲のIPから返答があるかどうか調べて、OK/NGを返すだけのスクリプト pingコマンドに回数指定しないと、延々返ってこない。 #!/usr/bin/env python # coding:utf-8 import commands ip_base = '10.0.0' start_ip = 10 ip_range = 5 for i in range(ip_range): i += start_ip ping_res = commands.getstatusoutput('ping -c 1 %s.%s'%(ip_base, i)) if ping_res[0] ==
みんなのIoT/みんなのPythonの著者。二子玉近く160平米の庭付き一戸建てに嫁/息子/娘/わんこと暮らしてます。月間1000万PV/150万UUのWebサービス運営中。 免責事項 プライバシーポリシー What Powers YouTubeから。大量のアクセスをテキパキとさばくYouTubeを支えているソフトウエアの構成が面白い。 Apache (HTML, JavaScript, CSS) Python Linux (初期はSuSe,現在はいろいろ) MySQL (5.x, Google内製のクラスタリング技術でそうとうカスタマイズされている) psyco, (Python -> Cの動的コンパイラ) lighttpd (動画配信に利用) GFS (Google File system) ほとんどオープンソースで,特別なものは使っていなくて,特にフロントエンドに近いところはかつシン
ScrapyはPython製のオープンソース・ソフトウェア。Webサービスから必要な情報を抜き出したり、自動操作をしたりと未だに利用されているのがスクレイピングと呼ばれる技術だ。求人、不動産、Eコマース…様々なサイトの情報を機械的に収集し、データベースに蓄積している。 Pythonで外部サイトからデータを収集する際に RubyでWebシステムを開発している場合、HpricotやNokogiriを使っていたが、Pythonによる開発の場合はどうしたら良いだろう。そこで使えるのがScrapyだ。ScrapyはPythonで開発されたスクレイピングとクローリング用フレームワークだ。 ScrapyではWebサイトにアクセスしてデータを取得し、そのデータからXPathを使ってコンテンツにアクセスできる。オブジェクト指向に従って、柔軟に操作ができるのが便利だ。スクレイピングしたデータを使ってWebサイ
気付けば夏休みが終わってました。blog全然更新してないね、うん… それはそうと先日サークルの合宿に行ってきました。*1 ということで成果物をひっそり公開してみる。 http://github.com/seikichi/tuitwi python + cursesで作ったTUIのtwitterクライアントです。*2 スクショ 操作方法はREADMEを見てやって下さい。上のgitのページでも見れます。 更新処理とかは別スレッドで動かしていたりするので、そこそこ快適なんじゃないでしょうか。 特徴としては 設定ファイルがYAML、タブ分けできる ぐらいかな? なんとなくgithubで公開してみたけど、svnしか使ったことない僕にはgitサッパリだぜ! (追記:2009/10/04 OAuthでの認証に対応) *1:「先日って言っときながら大分前じゃねえか!」とかいう突っ込み禁止 *2:Pytho
memcached, python-memcache のインストールと起動 sudo apt-get install memcached python-memcache sudo /etc/init.d/memcached start 初期設定だと 11211 番ポートで起動しています。変えたい場合は /etc/memcached.conf で。 memcached とお話してみる (telnet 編) まずは telnet 経由でお話してみる。プロトコルについては official wiki を見ればいいと思います。 telnet 127.0.0.1 11211 Trying 127.0.0.1... Connected to 127.0.0.1. Escape character is '^]'. 'foo' という key で フラグ 0、無期限 (0)、 3 byte のデータ '
迷路の描かれた画像に対して、ピクセルの座標で指定したスタート地点とゴール地点の最短経路を求めるプログラムをPython+PILで書いてみた。使用する画像は、デジカメで撮ったものでも、ウェブから拾ってきたものでも、ペイントソフトで自作したものでも構わない。 まずは使用例を見て欲しい。この画像は携帯カメラで撮った自作の簡単な迷路だ(画像上)。それに対して指定した2点間の最短経路を赤線で示してみた(画像下)。ピクセル単位で計測しているので赤線が若干ガタガタしていて完全な最短経路ではないがほぼ最短と考えていいだろう。迷路画像(画像上)をmaze01.jpgとし、スタート地点の座標が(240, 160)、ゴール地点の座標が(210, 400)の場合、コマンドラインで以下のように実行する。 maze_solver.py maze01.jpg -s 240 160 -g 210 400 これで最短経路を
PCA 解析と呼ばれる,あるデータの中から表現しやすい基底ベクトルを探す方法.だと思う. http://www.logos.ic.i.u-tokyo.ac.jp/~s1s5/pukiwiki/index.php?programming%2Fpython%2Fscipy を参考にとりあえずやってみた. #!/usr/bin/python import random import numpy from numpy import array from numpy import linalg def PCA(X): x_mean = array( map( sum, X.T) ) / len( X ) X_ = X - x_mean X_t = numpy.dot( X_.T, X_ ) / len(X) lam, vec = linalg.eig( X_t ) ans = zip( lam, v
Contents Introduction Download Documentation Installation Usage Testing Updates 1. Introduction Implementation of a PCA module in python using numpy, scipy and python extensions (here, in C). The module carries out Principal Component Analysis (PCA) using either Singular Value Decomposition (SVD) or the NIPALS algorithm. I chose to implement the NIPALS algorithm in C, because it is supposed to be
Overview This software implements the DeltaLDA model [1] for discrete count data. DeltaLDA is a modification of the Latent Dirichlet Allocation (LDA) model [2] which uses two different topic mixing weight priors to jointly model two corpora with a shared set of topics. The inference method is Collapsed Gibbs sampling [3]. This code can also be used to do "standard" LDA, similar to [3]. The code im
レスポンスの遅い応答を返すデバック用サーバがほしかったので、 Tornadoで作ってみました。 Tornado は、 URLパターン中に正規表現を入れると、リクエストハンドラーへリクエスト引数として渡すことができます。 class himote_check_handler(tornado.web.RequestHandler): # ([0-9]+)にマッチする箇所が、 uidとして渡される def get(self, uid): response_json = "{'mote_event_avg': %2.11f, 'user_id': %s}" # response delay uid_val = int(uid) if uid_val > 6000: os.system('sleep %d' % (uid_val / 1000)) # response json format sel
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く