Deep Learningの実装に関する記事が連続していますが、今回はStacked Denoising Autoencoders(SdA)について紹介します。 SdAは、前回の記事で実装したDenoising Autoencoders(DA)の層を組み合わせていくことで特徴抽出を行い、 最後の層でロジスティック回帰を用いて教師あり学習を行います。一応、SdAはDeep Belief Netsよりも画像認識では高い精度が得られているみたいです。 ソースは以下。

少し前から趣味で実装してるKobinというWebアプリケーションフレームワークのURL Dispatcherの実装をする時に、BottleやDjangoを参考にしながら考えてみました。 これらの比較とType Hintsを利用したKobinのURL Dispatcherの実装についてまとめます。 (追記) リバースルーティング ちょっと長いですが、追記です。結論としては元々紹介していた正規表現ベースのルーティングとは違う方法をKobinで採用しました この記事では正規表現によるルーティングについて解説していたのですが、このルーティング方法は逆引きが少し難しくなります(Djangoは正規表現ベースの逆引きですが、自由度の高い正規表現からURLを生成するために一部妥協しているところもあるようです)。 実際の問題では正規表現が必要となるほど複雑なURL構成になることは稀かもしれません。 逆引きの
Latest stable release: 3.9.2 'Berlin' - New hands-on book: React to Python, how to write React applications in Transcrypt Clear standard syntax Transcrypt has exactly the same clear, powerful syntax that Python is famous for, without the need for any proprietary extensions. It supports string slicing with [i:j:k], matrix and vector operations with +, -, *, / and more, out of the box. It precompile
#モチベーション 画像処理は色々なところで使える技術です。 そうたとえ結婚式の余興であってもです。 20代後半になると周りが結婚しているので、いやでも意識してしまう(汗 [結婚式・ウェディングのテーブルセット]( https://www.pakutaso.com/20130406108post-2650.html" 結婚式・ウェディングのテーブルセット") そして結婚式といえば余興 時間がない中でもクオリティを上げたい・・・ そんなニーズに応えてくれます。 そう画像処理ならね。 本記事で扱う範囲としては、「画像間の写像」を対象とします(実践 コンピュータビジョンの3章に相当)。なお、上級画像処理者の方は誤りなどあれば指摘していただければ幸いです。 #画像間の写像に必要な処理 余興用の写真を用意するときに必要になるのが写真の合成です。 写真の合成も単純に行うと違和感のある写真になってしまいま
Pythonのcsvパッケージは大変便利です。面倒なエスケープ処理をちゃんと行ってくれます。とりわけ、Excelファイルで送られてきたファイルを処理するのに重宝します。なんといっても、dialect='excel'でExcel CSVをちゃんと読めます。 ところが、日本語が絡むと問題は途端に厄介になります。問題の本質は何か。まず、ExcelのTSVの扱いに関して、以下のことが知られています。 Excelのtsvエクスポートはutf-16(BOM付き)である Excelが直接読めるのはBOM付きutf-16のtsvである(カンマ区切りはウィザードが必要) csv(カンマ区切り)出力や読み込みも可能だがおすすめできない(後述) このことからわかるのは、BOM付きutf-16ファイルを扱うのが最善ということです。これを扱う一番の方法は、ioパッケージを使うことです。 さらっと書きましたが、ioパ
動機 Liaroで代表取締役をやりながら#HiveShibuyaで窓際戸締役をしている@hanaken_Nirvanaです。 会社では動画のレコメンドアプリを開発しているのですが、API〜レコメンドエンジンまで(DeepLearning※, NLP含めて)基本的にPythonで書いています(ところどころScalaですが...)。 スタートアップ界隈でいうとRoRが多くPython人口も増えてほしいなぁーと思っていたのですが、『人工知能うぇい!』ブームにのってかPython教えて欲しいと言われることが度々あるので、その時のためにメモがてらPython初心者向けにPythonっぽい文法を中心に書こうかと思います。 まぁ偉そうに言っても僕もPython contributorでもないでもない、ただのPythonユーザーなんで間違いがあったらジャンジャン指摘して欲しいですʕº̫͡ºʔ ※ Deep
先日、以下の記事で、Haskell の ガード式 ライクに、「関数が受け取る 引数の条件(型 or 値) に応じて、実行する処理内容を場合分けする」メソッド の作り方を取り上げました。 HirofumiYashima Qiita記事( )「Python で Haskell の ガード式 ライクに、「関数が受け取る 引数の条件(型 or 値) に応じて、実行する処理内容を場合分けする」メソッド を定義する エレガントなコード事例を見つけた件」 Haskell では、パターン・マッチ式 や ガード式 を使って、関数に渡された引数の(型 or 値) に応じて、実行する関数 を 場合分けして 実行することができる。 「Dive Into Python 3」というウェブサイトを(別件で)眺めていて、これに相当する処理を Python で実行する エレガントなコード が目に留まったので、インデックスを
小ネタです。 すもももももももものうち 昨日、日本語形態素解析エンジンMeCabに関するエントリを書きました。 statsbeginner.hatenablog.com ところで、MeCabの公式サイト(リンク)にいくと、インストール完了後のテストとして「すもももももももものうち」の解析が行われています。"Hello world!"のノリで。 $ mecab すもももももももものうち すもも 名詞,一般,*,*,*,*,すもも,スモモ,スモモ も 助詞,係助詞,*,*,*,*,も,モ,モ もも 名詞,一般,*,*,*,*,もも,モモ,モモ も 助詞,係助詞,*,*,*,*,も,モ,モ もも 名詞,一般,*,*,*,*,もも,モモ,モモ の 助詞,連体化,*,*,*,*,の,ノ,ノ うち 名詞,非自立,副詞可能,*,*,*,うち,ウチ,ウチ EOS これを受けて、MeCabの使い方を解説する
PyPIで公開されているパッケージのうち、次のファイルター条件を用いた科学技術関連のパッケージの一覧を機械翻訳を交えて日本語化し掲載します。パッケージを探す参考にしていただければ幸いです。 Intended Audience :: Science/Research Topic :: Scientific/Engineering Development Status :: 5 – Production/Stable 3lc (2025-06-18) 3LC Python Package – A tool for model-guided, interactive data debugging and enhancements 3LC Pythonパッケージ – モデルガイドによるインタラクティブなデータデバッグと強化のためのツール ADiPy (2013-12-06) Automatic D
今回の目標 前回はparse treeの作成に必要なpyparsingの機能を理解しました。今回は3番の抽象構文木(AST)生成を行います。 パーサーでトークンに分解する。 トークンから構文木をつくる方法、式の構文木の作成 setParseAction()を使って抽象構文木(AST)を生成 <- 今ココ ASTノードを辿ってコードを生成する。 ASTノード ノードを定義するにあたっては次の点に注意します。 ASTノードはpyparsingの実装から切り離す。 ツリーの探索が簡単にできるようする。具体的には共通のベースクラスを持たせる。 ノードがコード生成の最小単位であるから、一つのノードの役割を大きくしない。 では実装です。pl0_nodes.pyというファイルを新規に作成します。このファイルではpyparsingはインポートしません。ベースクラスはprintしたときに、クラス名とフィール
2016/2/4 「ソフトウェアジャパン ビッグデータ活用実務フォーラム」でのプレゼン資料です。 主にPythonで書いたコードの高速化の話です。タイトルと中身がマッチしない感じがするのは自覚しています。
paizaが運営している無料オンラインプログラミング実行環境サービスpaizaIO、皆さんお使いいただいたことはありますでしょうか? 実はこちらのpaizaIO、あまり知られていないのですが、その場でコードを書いて実行できるブログパーツとして使用することもできるのです! 今回は、Python学習の記事でpaizaIOをご使用いただいているブログをご紹介します。 ■paiza.IOがブログパーツとして使えるって知ってますか……? ↓よかったらこちらのおみくじ出力コードを実行してみてください。また、大吉・大凶が出る確率を変更してみたり、中吉・小吉を追加してみたりしてください。 paizaIOを使えば、こんなふうにブログ上でコードを実行したり、書き換えたりもできるんですね。 「まいけるすとーりー」さんというブログでは、Python3の学習をされるにあたってこの機能をお使いいただいています。 ht
15分でわかる(範囲の)ベイズ統計学 1. 15分でわかる(範囲の)ベイズ統計学 数学カフェ 第10回発表資料 2016/1/31 @kenmatsu4 2. MASAKARI Come On! щ(゜ロ゜щ) みんなで勉強しましょう https://twitter.com/_inundata/status/616658949761302528 3. 自己紹介: @kenmatsu4 ・Facebookページ https://www.facebook.com/matsukenbook ・Twitterアカウント @kenmatsu4 ・Qiitaでブログを書いています(統計、機械学習、Python等) http://qiita.com/kenmatsu4 (5400 contributionを超えました!) ・趣味 - バンドでベースを弾いたりしています。 - 主に東南アジアへバックパック
MeCabのPythonバインディングはPython3で使えない? 日本語の文章を解析する際には欠かせない、形態素解析エンジン"MeCab"の導入に関するエントリを以前書きました(過去エントリ)。 MeCabの公式サイトにいくとPythonバインディングというのが配布されていて、Python上でMeCabを使うことができるのですが、これだとPython2系でしか使えません。 もともとこのPythonバインディングは、MeCabのプログラムからSWIGというツールを用いて自動生成したものらしく、この生成をやり直せばPython3系でも使うことができるようになります。 [追記]じつは、コメント欄で指摘を頂き、pipでmecab-python3というのが配布されていることが分かったので、公式サイトに置いてあるやつを使わずに、後述のとおりpipからインストールすれば全て解決しますw[/追記] ここ
どうすればPythonをJuliaと同じくらい速く動かせるのか? : 様々なやり方で計算の高速化を図る Julia対Python 科学技術計算には、Pythonなどの言語よりもJuliaを使った方がいいのでしょうか? http://julialang.org/ に載っているベンチマークを見ると、どうしてもそんな風に思ってしまいます。というのも、Pythonなどの高水準言語は、スピード面で大幅に劣っているのです。けれども、これは私が最初に感じた疑問ではありません。私が気になったのは、「Juliaのチームが書いたPythonのベンチマークは、Pythonに最適なものだったのか?」ということです。 こういった多言語の比較について、私の考えを述べましょう。まずベンチマークというのは、実行するタスクによって定義されるものです。よって、そのタスクを実行するための最適なコードを、各言語に精通した人々が最
速い Python 実装といえば PyPy が有名ですが、 Python 3 へのキャッチアップが遅い、 CPython が持っている Python/C API のサポートがまだ弱く遅い、などの欠点があります。 また、 Google の1年プロジェクトだった Unladen Swallow もありました。これは CPython をフォークして LLVM で JIT を実装するものでした。この fork 実装は終わりましたが、この時期まだ不安定だったLLVMへの貢献は大きく、(ちゃんとおってないので憶測ですが)現代LLVMを利用したJITを実装しているプロジェクトは全部間接的に Unladen Swallow の成果の上に成り立っていると言えるかもしれません。 終了した JIT プロジェクトといえば、 psyco もありました。これはベタに CPython の JIT を実装していましたが、
今回は、人工知能関連のテーマです。 Google の機械学習フレームワーク TensorFlow に触れてみようと思います。 プロローグ 人工知能の分野が盛り上がりを見せるなか、世界の名だたる研究機関やIT企業から様々な機械学習ツールがオープンソースで提供されるようになりました。これを使えば、自分にも機械学習を扱えるはず! と思いたち、Facebook の Torch 7 という機械学習フレームワークにチャレンジしたことがあります。が、チュートリアルまでやってみたところで、何が動いたのかまったく理解できず・・・あえなく挫折しました。 まだまだ素人には難しいか・・・とか思ってしょんぼりしていたのですが、それからしばらくして、世の中には日本語の情報も増えてきた様子。今度こそ自分でもできるかも! と期待に胸が震えたわけです。 今回 TensorFlow にチャレンジしようと思ったきっかけを与えて
皆さんこんにちは お元気ですか。私は元気です。 今日はPythonにおける便利記法を書いてみます。 他の言語しか使ったこと無い人もぜひ ※1/25間違いかと思われる箇所の加筆修正を実施 リストに関するイテレーション enumerate(インデックスとオブジェクトのループ) zip(同時に2つのオブジェクトでループ) yield(途中で一旦返す) for-else(forで途中で停止しない場合の条件) リスト内包表記 Collections Counter default dict(辞書のデフォルト値設定) Sort(ソート) sorted if文の書き方 Fileに関する処理(with) in(オブジェクトに存在しているかどうか) 関数について 返り値を複数返す。 関数のオブジェクト化 参考文献 リストに関するイテレーション enumerate(インデックスとオブジェクトのループ) enu
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く