sqlite3にはリスト型は存在しないため、例えばintegerのリストを格納したい場合はstr()して;(セミコロン)区切りの文字列にjoin()して格納、取り出すときはsplit()してint()するという操作が必要となる。 sqlite3モジュールにはこれらの操作を予め登録し必要に応じて自動で実行する仕組みが存在している。 これによりリスト要素の型が全て一致していることがわかっているのであれば、変換関数をregister_adapter()とregister_converter()を使って登録することでリストをシームレスに扱うことができる。 以下の例ではtesttableにIntListという型を定義してregister_adapter()とregister_converter()を使いpythonのデータ型との変換方法を登録している。 connectするときのdetect_type
Managing the Data Pipeline with Git + Luigi Last updated February 25, 2015 One of the common pains of managing data, especially for larger companies, is that a lot of data gets dirty (which you may or may not even notice!) and becomes scattered around everywhere. Many ad hoc scripts are running in different places, these scripts silently generate dirty data. Further, if and when a script results i
はじめに Nim (旧称: Nimrod) というVimに似た名称のPython風構文な静的型付言語があります。 先日Twitterで存在を知り、少し触ってみました *1。 書きやすい上に実行速度がとても速く(単純な処理でgo, rustより早くC並)、非常に気に入ったので簡単にインストール方法などを紹介したいと思います。 注意 筆者はPythonくらいしかよくわからないのでPython (version >= 3.0) 基準です 試した環境はUbuntu 14.04 (64bit)です Nimの特徴 主に公式ページの記述から、主観で特徴を列挙します。 言語の特徴 静的型付 型推論あり インデント構文、行末セミコロンなし ガベージコレクタあり(高速らしい) Low level処理も記述可能(メモリ操作可能) 高度な型システム(インターフェイス、ジェネリクスなど) ユーザ定義演算子、演算子オ
6. Strategies to scale computationally: bigger data¶ For some applications the amount of examples, features (or both) and/or the speed at which they need to be processed are challenging for traditional approaches. In these cases scikit-learn has a number of options you can consider to make your system scale. 6.1. Scaling with instances using out-of-core learning¶ Out-of-core (or “external memory”)
本気でPythonをやりたいならあわせて読みたい「え?君せっかく Python のバージョン管理に pyenv 使ってるのに Vim の補完はシステムライブラリ参照してるの?」 2013-06-23 21:30 おしりに追記しました 2013-06-24 10:00 設定等微修正しました 2013-06-24 15:20 quickrunの設定を修正しました 2013-07-03 14:30 間違い等を修正しました 様々な開発環境を試してきましたが、結局Vimに落ち着いてしまっているAlisueです、どうも。 Vimを最強のPython IDEにするを書いてからかれこれ二年ほどが経ちます。 二年もあると新しいVimプラグインが増えるなどし、先の記事内容では最強ではなくなってしまいました。なのでこの辺でもう一度現在の最強をまとめてみたいと思います。 基本方針 プラグイン関係はすべてNeoBu
はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28
あけましておめでとうございます。白ヤギの物理担当、シバタアキラ(@punkphysicist)です。 皆様はどんなお正月を過ごされましたか?日本の正月といえば、おせち、日本酒、おばあちゃん、そしてパズル、ですよね。私の正月はそんな感じでした。お節をたらふく食べ、美味しいお酒でほろ酔い気分になっている私の横で、黙々とおばあちゃんがパズルをやっているのに気づいたのです。部屋中をフワフワしている私とは全く対照的に、微動だにせずパズルを続けるおばあちゃん。御年迎えられると辛抱強さが半端ない。 そんなおばあちゃんがやっていたのはかわいいチョコレートのピースとは裏腹にこんな挑発的な文言の書かれたパズルです(この記事はアフィリエイトではありませんが、写真をクリックすると買えます) 何時間たっても答えが出ないおばあちゃん、辛抱強さは人一倍強いですが、私も何とか助けてあげたいと思いトライ。しかし日本酒が・・
Elasticsearchから取り出してsklearnでテキストデータをゴニョゴニョするときにPython側ではIgoを使って形態素解析とかしていたけど、Elasticsearchでやっている形態素解析と一致しないのもなんだし、Igoを直読みするよりパフォーマンスは落ちると思うけど、辞書管理等々考えるとElasticsearchのanalyze APIを使って形態素解析しちゃった方がシンプルかなっと思い、まとめておく。 まず、PythonでElasticsearchのAnalyze APIが呼べることを以下で確認する。ここでは、Python 2.7を利用している。elasticsearch-pyもインストール済みな想定で、Elasticsearchも起動しておく必要がある。 $ python Python 2.7.6 (default, Mar 22 2014, 22:59:56) [GC
Sloan Ahrens is a co-founder of Qbox and is currently a freelance data consultant. In this series of guest posts, Sloan will be demonstrating how to set up a large scale machine learning infrastructure using Apache Spark and Elasticsearch. This is part 2 of that series. Part 1: Building an Elasticsearch Index with Python on an Ubuntu is here. -Mark Brandon In this post we're going to continue se
『Python Conference Japan 2014』にMakeLeaps開発者が登壇しました。 2014年9月13〜14日、東京国際交流館プラザ平成にて開催された日本最大の Python コミュニティイベント「Python Conference Japan 2014」にMakeLeapsがシルバー・スポンサーとして協賛・出展し、弊社開発者が登壇しました。 過去の記事『PyCon 2014 シルバースポンサーになりました』 Python開発者のダニエル・イスキエルドが登壇し、データ分析を通してコーディングの質を向上させる方法についてスピーチしました。 『Improving code quality through static analysis for Python』登壇の様子はYouTube動画で公開されています。
Posted May 16, 2012 I like Python, a lot. I'm one of those people who would use it all the time if they could, especially for web development. Which is convenient, since I'm currently working on my own company. One of the drawbacks of using Python, though, has always been getting it to play nicely with web servers. I've never been completely happy with the options out there: mod_python, mod_wsgi,
「Nginxをダウンタイム・ゼロで入れ替える方法」で書いたように、/usr/local/nginx/ のNginxを version 1.0.13 に更新しました。これとは別に、catyというユーザーアカウントのホームディレクトリ内にNginxをインストールして、Nginx+uWSGIとCatyの実験をしようとしています。 Nginx+uWSGIは、Catyに限らず一般的なWSGIアプリケーションを稼働させる良い環境を提供します。簡単に紹介しましょう。 内容: WSGIとuWSGI なぜ Nginx+uWSGI にしたのか uWSGIについて少し インストール とりあえず動かしてみる ソレナリに動かしてみる プロセスの制御など WSGIとuWSGI WSGI(Web Server Gateway Interface)*1は、Pythonで書かれたWebアプリケーションとアプリケーションサー
Pythonの軽量Webフレームワーク「Bottle」について調べ中。 Pythonの軽量Webフレームワーク「Bottle」 PythonのBottleフレームワークで静的ファイルのリンク生成 簡単なアプリケーションを作成し、Apache + mod_wsgiな環境で動かせるか試してみます。 サンプルアプリケーション 2ページ作成し、各々にお互いのリンクを作成しています。 mod_wsgiで動かすときによくはまるのが、リンクを作成するメソッドが、 ルートでの動作しか考えてない、要するに http://www.example.com/ で動くことしか想定してなくて、 http://www.example.com/mod_wsgi/ みたいなリンクで動かそうとすると、リンクが正しく生成されなかったりします。 こんなサンプルにしました。 index.py # -*- coding:utf-8
LDA とは "Latent Dirichlet Allocation"。文書中の単語の「トピック」を確率的に求める言語モデル。 「潜在的ディリクレ配分法」と訳されていることもあるが、その名前だと「それってなんだっけ?」という人のほうが多そうw。 各単語が「隠れトピック」(話題、カテゴリー)から生成されている、と想定して、そのトピックを文書集合から教師無しで推定することができる。特徴は、果物の apple と音楽の apple とコンピュータ関連の apple を区別することが出来る(ことが期待される)という点。そのために、どのトピックを生成しやすいかという分布を各文章も持つ。細かい話は略。 結果の見方としては、定量的にはパープレキシティを見るし(一般に小さいほどいい)、定性的には各トピックがどのような単語を生成するか、その確率上位のものを見てふむふむする。この「各トピックが生成する単語」
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く