こんにちは、シバタアキラです。この度PyDataの本家であるアメリカのコミュニティーで半年に一度開催されているPyDataカンファレンスに出席するため、NYCに行って来ました。11/22-11/23の二日間の日程で行われ、延べ250人ほどが参加したイベントです。その時の模様は、先日のPyData Tokyo第二回ミートアップでもご説明させていただき、また後日記事化されると思いますので、そちらをぜひご覧いただければと思います。 今回はそのPyData NYCカンファレンスで私が発表してきたミニプロジェクトについてお話します。最近各所で話題に上がるディープラーニングですが、これを使った応用を「カメリオ」のサービス向上のために使えないか、というのがそもそものプロジェクトの着想でした。今回PyData Tokyoオーガナイザーとして、またディープラーニングで色々と面白い実験をしている田中さん(@a
I’m working through Programming Computer Vision with Python: Tools and algorithms for analyzing images, which covers various mechanisms for determining corresponding methods to match points of interest between two interest. In the book, this eventually builds up to an instruction on how to reconstruct a panorama. The first technique for finding corresponding points of interest looks for corners in
I've been working with Python bytecode recently, and wanted to share some of my experience working with it. To be more precise, I've been working exclusively on the bytecode for the CPython interpreter, and limited to versions 2.6 and 2.7. Python is a dynamic language, and running it from the command line essentially triggers the following steps: The source is compiled the first time it is encount
Project Moved Please note that Bandit is no longer maintained under OpenStack and has been moved to the Python Code Quality Authority: https://github.com/PyCQA/bandit All patches and issues should be raised on the PyCQA github repository. Overview Bandit is a security linter for Python source code, utilizing the ast module from the Python standard library. The ast module is used to convert source
Changelogs are a frequently overlooked aspect of software release management. I’m going to outline the different approaches to keeping them, and describe a dumb yak shave I undertook to improve the situation for my own projects. Changelog approaches No changelog A disturbing number of projects don’t keep any changelog. Those responsible are awful people who clearly don’t want anybody using their s
データベースにテーブルやカラムがたくさんあったり、そのデータベースをはじめて扱う場合、欲しいデータがどこにあるのか探すのになかなか手間がかかることがあります。 そんな場合に役に立ちそうなdb.py と言うツールを見つけたので試してみました。 https://github.com/yhat/db.py 直接SQLで探索する方法は以下の記事を参照。 SQLでデータベース探索 db.pyでできること db.py を使うと以下のようなことが簡単にできます。 テーブル名やカラム名の検索 クエリの実行 データのサンプリング よく使うデータベースの接続情報の保存 pandasの機能を使用したクエリ結果の処理 データベースに格納されているデータの全体像を把握したり、欲しい情報がどこにあるのか探すために使うと便利です。 インストール db.pyのインストール db.pyはPython で書かれておりpip
After flying this past weekend (together with Gabriel and Leandro) with Gabriel’s drone (which is an handmade APM 2.6 based quadcopter) in our town (Porto Alegre, Brasil), I decided to implement a tracking for objects using OpenCV and Python and check how the results would be using simple and fast methods like Meanshift. The result was very impressive and I believe that there is plenty of room for
The Top Mistakes Developers Make When Using Python for Big Data Analytics Karolina Alexiou Karolina Alexiou is a software developer, passionate about building systems, learning new technologies, Python and DevOps. She currently works at a Zurich based Big Data startup, where she has honed her Python skills for building data analysis and data management solutions. ##1 Introduction Python is a langu
We stand with Ukraine Ukrainian people are fighting for their country. A lot of civilians, women and children, are suffering. Hundreds were killed and injured, and thousands were displaced. This is an image from my home town, Kharkiv. This place is right in the old city center. Picture by @fomenko_ph (Telegram). Please consider donating or volunteering. https://savelife.in.ua/en/donate/ https://ww
もう既に山ほど解説記事が出回っていて、あまつさえそれを利用したwebサービスまで出てきてしまっているword2vecですが、うちの現場でも流行っているのでせっかくなので僕もやってみようと思い立ったのでした。 word2vecそのものについては昨年来大量にブログやら何やらの記事が出回っているので、詳細な説明は割愛します。例えばPFIの海野さんのslideshare(Statistical Semantic入門 ~分布仮説からword2vecまで~)なんかは非常に分かりやすいかと思います。 要するにword2vecって何よ Recurrent Neural Network(再帰型ニューラルネットワーク)で、単語同士のつながり(というか共起関係)に基づいて単語同士の関係性をベクトル化(定量化)し、これを100次元とか200次元に圧縮して表現するもの。。。みたいです(汗)*1。 ※以下のようにご指
試しに英語で Blog を書いてみた のですが、書くので精一杯で結局何が言いたいのか分からない感じになってしまったので今後は日本語 Blog 書いてから英訳しようと思います。 Python 3 は 3.2 まで、文字列を unicode に統一した関係で Python 2.7 に比べて遅くなったりメモリ効率が悪くなったりしてしまっていたのですが、 Python 3.3 で PEP 393 Flexible String Representation が導入されて改善されました。 PEP 393 は Python の内部だけではなく Python/C API にも変更を加えており、内部を理解しつつ新しい API を適切に使えば、バイト列と文字列の間の変換を行うような C 拡張を高速化することができます。 そろそろ Python 3.2 のサポートを切れる時期なので、思い当たる人は目を通してお
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く