Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

Python is one of our favorite languages at code(love). Versatile, and yet easy to grasp, it’s one of the best languages at expressing the logic behind code with a simplicity that is sometimes breathtaking in its elegance. If you happen to be more practical, Python always ranks among one of the programming languages that draws the highest median annual salaries, hovering around the magic $100,000 U
方針 オンライン学習プラットフォームCourseraで一番人気の講座、Stanford大学のMachine Learning。講師はAndrew Ng先生。授業はレクチャーとプログラミング課題からなるが、プログラミング課題に使用する言語はOctaveまたはMatlabが指定されている。 このプログラミング課題をPythonを使って粛々と実装していく。ただし、 オリジナルの課題はアルゴリズムの理解を助けることを目的としているため、一部の処理は機械学習のライブラリを使用せずに自らコードを書くように設計されている。これをそのままPythonで再現するのではなく、できる限りPythonにある機械学習ライブラリを使って効率よく実装したい。 という方針。 さっそくex1 最初の課題となるex1では線形回帰(Linear Regression)をやります。レストランチェーン経営において、過去に出店した街
Pythonのリストの代入は参照渡しなので、普通に代入すると内容は同じものを指します。 >>> hoge = [1, 2, 3] >>> fuga = hoge >>> id(hoge) 4359788304 >>> id(fuga) 4359788304 >>> 参照を渡すだけでなく、複製したい場合は以下のようなやりかたでできます。 >>> hoge = [1, 2, 3] >>> fuga = list(hoge) # その1 >>> piyo = hoge[:] # その2 >>> id(hoge) 4359425992 >>> id(fuga) 4359327896 >>> id(piyo) 4359788304 >>> import copy >>> moga = copy.copy(hoge) # その3 >>> id(moga) 4359328544 ただし、リストの中身が辞
(訳注:2016/3/9、いただいたフィードバックを元に記事を修正いたしました。) 注意: この記事で書かれている機能は、大部分がPython 3.4で導入されたものです。ネイティブコルーチンとasync/await構文はPython 3.5でサポートされました。そのため、本記事に記載されているコードを試す場合はPython 3.5の利用をお勧めします。 ジェネレータは値を 生成する 関数です。普通、関数は return で値を返したあと、その下層のスコープは破棄します。関数を再度呼び出す場合、その関数はゼロから起動されることになります。つまり1回限りの実行となります。しかしジェネレータ関数は値を yield で返し、関数の実行を一時停止します。その後、関数を呼び出したスコープにコントロールが移ります。関数を再び呼び出して次の値を(存在すれば)得たい時は、実行を再開することができます。では
Recurrent Neural Network(再帰型ニューラルネット)に関心はあるが,なかなかコード作成に手がつかない,このようなケースが多くないだろうか?理由はいくつかあるが,私の場合は次のようなものが思い当たる. 単純にネットワークの構成が複雑.MLP(Multi-layer Perceptron)から入門してCNN(Convolutional-NN)に進むまでは,特殊なLayerがあるにせよ,信号の流れは順方向のみであった.(誤差の計算は除く.) MLPやCNNにおいては分かりやすい例題,(Deep Learningの’Hello World'と称される)"MNIST" があったが,そのような標準的な(スタンダードな)例題がRNNにはない. 因みにTheanoのDeep LearningやTensorFlowのTutorialは,言語モデルを扱ったものである.言語モデルに精通され
#この記事について Pythonとlxmlを使って、webスクレイピングでYahoo!ファイナンスから投資信託の基準価格を取得する方法を解説します。 [追記] Yahoo!ファイナンスからのデータスクレイピングは規約上禁止されているようなので、代わりの方法を利用ください。 Pythonでスクレイピング - 投信協会webから投資信託の基準価格を取得する ##環境 Windows10 x64 Python 2.7.11 lxml 3.5.0 ##変更履歴 2016/1/16 lxml.html.parse()にurlを直接渡すようにした。urllib2のimportを無くした。 url生成の際に引数をdictに取ってからformat()で展開するようにした。 forの回し方を変更 ElementTreeからXPathで取得した要素に.encode('utf-8')する処理をあらかじめmap(
AWS Lambda? サーバレスでプログラムを実行できるようなもの 1 か月 1,000,000 リクエストは無料 今回のような1日1回動かす程度なら無料でずっと使えます 詳しくは → https://aws.amazon.com/jp/lambda/faqs/ やりたいこと Lambdaのスケジュールイベントを使って自動的にEBSのスナップショットを作成する 今回使用する言語はPython スナップショットの対象は、EC2インスタンスのタグに「Backup-Generation」が付いているものとする Backup-Generationの値には、0以上の数字を指定する スナップショットの保存件数は、Backup-Generationの値とする 0のときはスナップショットを作成しない スナップショットの保存件数を超えた場合は、作成日付の古いものから削除する 作成したスナップショットのDe
はじめに Pythonで機械学習といえばscikit-learnですが、scikit-learnを使うにはnumpyやscipyといった大きめのライブラリを入れる必要があります。でも、プログラムでほんのちょこっとだけ機械学習のモデルを使って分類したいって場合だと、わざわざそういう重いもの入れたくないなーと思うときがあります。scikit-learnで学習したものをnumpy, scipy, scikit-learnなしに使って分類処理ができたらなーって。 そこで今回はscikit-learnの決定木 (DecisionTreeClassifier) やRandom forest (RandomForestClassifier) からif-then形式のコードを生成するものを紹介します。 コード https://github.com/ikegami-yukino/misc/blob/mast
PRML5章から図5.3を再現するために、ニューラルネットワークを実装してみます。 先に申し上げておきますと、偉そうに実装とか言ってるものの、コードから再現した図は歯切れの悪いものとなっております。。。 まず、図5.3(b),(c),(d)に関してはPRMLの中の図に比べて予測精度がいまいち良くない印象。さらに、図5.3(a)に関しては全く見当はずれな予測が返ってくるという状況。試行錯誤しましたが、力不足でして、どなたか間違い気づかれましたらご指摘下さい。 ニューラルネットワークや、誤差伝播法(Backpropagation)そのものの解説はPRMLやはじパタなどに任せるとして、実装に必要な部分だけざっと確認したいと思います。 実装の大まかな流れ ①ニューラルネットを経たアウトプットは(5.9)で表される。PRML文中の式は活性化関数にシグモイド関数を想定しているが、図5.3ではtanh(
で1.5.1をインストールしてください。 突然ですが、あなたはこんな衝動にかられたことはないでしょうか? Slack上で面白い返事やつぶやきをしてくれるbotやいろんな質問に答えてくれるボットがいれば、会話が盛り上がるし、聞きづらい質問にも答えてくれるのに・・・ 私も思ったことがあります。そこで実装してみました。 最終的にこんな感じの応答を返してくれるようになります。 ##対象読者 1:中身は分らなくも良いから賢くなるbotを作ってみたい!! やるべきアクション:下記リポジトリをgit cloneして環境構築して、実行して下さい!! 2:中身も知って賢くなるbotを作ってみたい!! やるべきアクション:この記事を読んで仕組みを理解してからgit cloneして環境構築して、実行して下さい!! 3:ガチの人 やるべきアクション:アドバイス下さい。お願い致します。 #全体構成 #Chainer
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 「OpenCV-Python チュートリアル文書」 のサイトが立ち上がっています。 [OpenCV-Python チュートリアル文書のページへようこそ!] (http://labs.eecs.tottori-u.ac.jp/sd/Member/oyamada/OpenCV/html/index.html) まとまった訳を読むためには、上記のサイトをご利用ください。 以下の訳は、訳として不十分であり、関連するpythonのライブラリとの比較をした部分に独自性がある程度の代物です。 OpenCV3.2のOpenCV-Python Tutor
皆さんこんにちは お元気ですか。私は元気です。 今日はPythonにおけるメモリ少なく使う方法を紹介したいと思います。 なぜ、そんな方法を書くに至ったか。それは、こんなエラーをしょっちゅう見ているからですね。 Traceback (most recent call last): File "lasagne_wheal.py", line 48, in <module> prediction = model.predict_proba(np.array(X_test)) MemoryError 画像処理を行っている人間ならよくやりがちかもしれませんが、 要はint8で持っている情報をfloatに変換してデータが膨れ上がったことによってメモリが 不足していることから発生しています。 Convolutional Neural Networkを大きな画像で実施しようとするとよく発生するのではないで
概要 なんか書いてみようということで、Elasticsearchに行動履歴の位置情報を登録すれば、いい感じに利用できる上に、いい感じに可視化もできるという話をします。 前提知識 今回Elasticsearchを利用するので、簡単に紹介。 ElasticsearchはApache Solrとよく比較される全文検索エンジンの一つです。スキーマフリーですべての入出力がREST&JSONになっています。またJavaで実装されています。 詳しくはElasticsearchの紹介と特徴 インストールはyumでもbrewでも簡単に出来ます。利用したい環境に合わせて調べてみてください。 ちなみにElasticsearchのGUIプラグインのelasticsearch-headが便利なので合わせて入れておくと良いです。 Elasticsearchの設定 Elasticsearchを起動できたら、利用するin
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事について Pythonでデータ分析を行う際に役立つセットアップを紹介します。 データ分析に興味がある方はこちらも合わせてどうぞ データサイエンティストに興味があるならまずこの辺りを見ておきな、って文献・動画のまとめ(随時追加) - Qiita 実行環境 Jupyter(旧iPython Notebook) http://jupyter.org/ インタラクティブ(対話的)なコード実行のための環境 データ分析に非常に適していて、慣れると他のIDEなどでは分析ができなくなる。 任意に分けたコードブロックごとに実行し、結果を都度表示出
先日参加させていただいた Japan.R でこんな話を聞いた。 RPubs - leafletではじめるRによる地図プロット Python でも folium というパッケージを使うと JavaScript を書かなくても Leaflet.js の一部機能が使えるのだがあまり情報がない。上の資料に書いてあるようなことが folium でもできるのか調べたい。 folium については前にこんなエントリを書いた。 sinhrks.hatenablog.com データの準備 import numpy as np np.__version__ # '1.10.2' import pandas as pd pd.__version__ # u'0.17.1' サンプルデータとして Wikipedia にある アメリカの国立公園 のデータを使う。まずは pd.read_html でデータを読みこむ。
メリークリスマス!!!! @tabe2314です。 この記事では、明日から使えるChainerテクニックとして、既存モデルをファインチューンして新しいモデルをつくる際の個人的なベストプラクティスを紹介します。 ファインチューニング ニューラルネットを学習するために、別の問題、別のデータセットで学習済みのモデルのパラメータをコピーして、それを新しいニューラルネットのパラメータの初期値として使うことをファインチューニングといいます。 典型的なケースとして、一般物体認識のデータセットであるImageNetで学習したネットワークを物体検出やSemantic Segmentationといった別の問題に使用するといった例があります。 一般的にDeep Learningでは大量の学習データが必要とされていますが、あらかじめ(大量のデータで)学習したモデルを初期値として使いファインチューニングすることで、
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? これも調査中の記事です。 ###みんなのRaspberry Pi 入門 モーターキット https://www.switch-science.com/catalog/2217/ 内容物 DCモーター ※要ハンダ付け 銅線 2本 デュアル・モータードライバ (TB6612FNG)※要ハンダ付け 電池ボックス ステッピングモータ(SPG27-1702) トランジスタアレイ(TD62783APG) ミニサーボモータ ピンヘッダ 1×40 書籍[「みんなのRaspberry Pi入門 第2版 [対応言語:Python] (リックテレコムの電子工
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く