タグ

2012年9月6日のブックマーク (10件)

  • 画像処理でのPythonの利用

    東京大学 松尾研究室が主催する深層強化学習サマースクールの講義で今井が使用した資料の公開版です. 強化学習の基礎的な概念や理論から最新の深層強化学習アルゴリズムまで解説しています.巻末には強化学習を勉強するにあたって有用な他資料への案内も載せました. 主に以下のような強化学習の概念やアルゴリズムの紹介をしています. ・マルコフ決定過程 ・ベルマン方程式 ・モデルフリー強化学習 ・モデルベース強化学習 ・TD学習 ・Q学習 ・SARSA ・適格度トレース ・関数近似 ・方策勾配法 ・方策勾配定理 ・DPG ・DDPG ・TRPO ・PPO ・SAC ・Actor-Critic ・DQN(Deep Q-Network) ・経験再生 ・Double DQN ・Prioritized Experience Replay ・Dueling Network ・Categorical DQN ・Nois

    画像処理でのPythonの利用
  • macportsヤメてhomebrewにしました。でopencvをsnow leopardに入れる方法 - ( ꒪⌓꒪) ゆるよろ日記

    homebrewの導入についてはこちら。 mac ports やめました! ー homebrew で快適 OSX 生活! - ”><xmp>TokuLog 改メ tokuhirom’s blog homebrewのインストール - LAPISLAZULI HILL#Hatena homebrew - 徹夜族 MacPortsではなく、homebrewを使う - cipher brew install pythonpython2.7を入れられてしまったので、brew edit pythonして、s/2.7/2.6.6/ で置換しつつmd5を修正してpython2.6.6を入れました。で、virturalenvで使うようにした。 入れたもの。 ozaki@yuroyoro-MacBook-2 $ brew list --versions bdw-gc 7.1 cmake 2.8.2 core

    macportsヤメてhomebrewにしました。でopencvをsnow leopardに入れる方法 - ( ꒪⌓꒪) ゆるよろ日記
  • 主成分分析 - 機械学習の「朱鷺の杜Wiki」

    主成分分析 (principal components analysis)† 高次元のデータを,データの分散が最大になるように,低次元のデータに変換する方法.教師なしの次元削減の手法として最も一般的. p次元のデータベクトル \(\mathbf{x}_i\) を\(n\)個集めて, \(n\times p\)のデータ行列 \(X\) を生成. 平均ベクトルは \(\mathbf{\bar{x}}_i=(1/n)\sum_i^n \mathbf{x}_i\). \(\mathbf{1}_n\) を長さが \(n\) の1ベクトルとして,\(\tilde{X}=X - \mathbf{1}_n \mathbf{\bar{x}}^\top\). 共分散行列は \(S=\frac{1}{n}\tilde{X}^\top\tilde{X}\). 共分散行列を次式のように分解する. \[S=A \La

  • しげ日記: PCAとSVD

    ニュージャージ州立ラトガース大学でポスドクをやっています。専門は神経生理学。Homepageはこちら。 ただいま休止中です。またそのうち始めるかもしれません。 ブザキラボと、隣のケン・ハリスラボ(ケンはブザキ研出身なのでラボどうし仲がよい)は、数物系出身の理論家が多い。全体の1/3ぐらいが理論家かな。解析系のプログラムなどは、理論系の人がバリバリ書いてくれる。実験系の人は、プログラムの使い方は分かるが、しかし原理まではなかなか勉強できない。それで、ハリスラボのポスドクのカリーナ(彼女は数学出身)が実験系の人のために、解析用の数学を簡単に説明してくれる勉強会を毎週金曜にしてくれているらしい。その勉強会の存在を先日知ったので、今回から僕も参加させてもらうことにする。 今日のお話は、PCA(principal component analysis:主成分分析)と SVD(Singular Val

  • PCA(Principal Component Analysis)を具体的に計算する - minus9d's diary

    (2013/6/18修正) PCAの計算方法を天下り的に説明します。専門家ではないので誤りが含まれる可能性があることをあらかじめご了承ください。データの例はExample of Principal Component Analysis (PCA).mp4 - YouTubeで使われているものをそのまま流用しています。というか、このあやしい説明を読むよりかこの動画を見た方がいいかもしれません。 PCAの目的 ベクトル基底を変換することにより、できるだけ情報を失うことなく次元を削減すること。 データの例 2つの独立変数X, Yを持つ10組のデータがあるとする。 X Y 1.4 1.65 1.6 1.975 -1.4 -1.775 -2.0 -2.525 -3.0 -3.95 2.4 3.075 1.5 2.025 2.3 2.75 -3.2 -4.05 -4.1 -4.85 プロットするとこん

    PCA(Principal Component Analysis)を具体的に計算する - minus9d's diary
  • 大学のキャンパスをストリートビューで見学しよう

    メディア関係者向けお問い合わせ先 メールでのお問い合わせ: pr-jp@google.com メディア関係者以外からのお問い合わせにはお答えいたしかねます。 その他すべてのお問い合わせにつきましては、ヘルプセンターをご覧ください。

    大学のキャンパスをストリートビューで見学しよう
    satojkovic
    satojkovic 2012/09/06
    母校がストリートビューで見れるとか胸熱
  • Twitter API 1.1のRate Limitから見るTwitterの狙い - とかいろいろ

    REST API v1.1 Limits per window by resource 新しいAPIのLimit出てますね。単位は15分毎です。*1 まずは皆が普段見ているタイムライン「statuses/home_timeline」はいくつか、というと15回。一時間で60回。今までのようにモバイル端末でガシガシ取得するわけにはいかなくなります。 メンションの「statuses/mentions_timeline」、リストタイムライン「lists/statuses」も15回です。 大体みんな15分に15回で統一されています。先にも述べましたが、今までのようにモバイル端末でガシガシ取得するのは厳しくなりますね。デスクトップ端末ならuserstreamが使えるので、こちらは補完用になる為に問題はないのですが。 …タイムラインの時刻表示は相対時間表示にしろ、という件といい、当にモバイルのこと考え

    Twitter API 1.1のRate Limitから見るTwitterの狙い - とかいろいろ
  • perlbrew-completionを書いた / またはcompletionスクリプトの開発とデバッグの話 - Islands in the byte stream (legacy)

    きょうびmakeやgitでも補完が効くなか、perlbrewでも補完が効いてほしいですよね。 たとえば私はマシンによってperlbrewで入れたperlはけっこう違っているのですが、どのマシンにどのバージョンのperlを入れたか正確には覚えていません。なのでperlbrew use [tab]で利用可能なperlの一覧が出るなどしてほしいところです。 そこでperlbrew-completionを書きました。pull-req済みなのできっと次のバージョンあたりから使えることでしょう。 $ perlbrew [tab] alias install off available install-cpanm self-upgrade clean install-patchperl switch compgen install-perlbrew switch-off display-bashrc l

    perlbrew-completionを書いた / またはcompletionスクリプトの開発とデバッグの話 - Islands in the byte stream (legacy)
  • Matsuhiroさんによる、未来を切り拓くために必要な3つのこと

    Hiroshi Matsui(松井博)@Brighture CEO @Matsuhiro 面倒見るのと一生を生きる糧を身に付けるのを同列に並べられるんでしょうか?@miyukiaoiiori @suzunone 業績だの能力だのよりも「○○の家の○○君が困ってるから面倒見てやる」が優先していました。(拾われた子も感謝して懸命に仕事を覚えていました。) 2012-09-02 12:32:22 Hiroshi Matsui(松井博)@Brighture CEO @Matsuhiro また社会が老齢化するに従い、年長者側が面倒を見る余裕がなくなるでしょう。@miyukiaoiiori @suzunone 業績だの能力だのよりも「○○の家の○○君が困ってるから面倒見てやる」が優先していました。 2012-09-02 12:33:25

    Matsuhiroさんによる、未来を切り拓くために必要な3つのこと
  • k近傍法 - Wikipedia

    k近傍法(ケイきんぼうほう、英: k-nearest neighbor algorithm, k-NN)は、入力との類似度が高い上位 k 個の学習データで多数決/平均するアルゴリズムである[1]。 パターン認識(分類・回帰)でよく使われる。最近傍探索問題の一つ。k近傍法は、インスタンスに基づく学習の一種であり、怠惰学習 の一種である。その関数は局所的な近似に過ぎず、全ての計算は分類時まで後回しにされる。また、回帰分析にも使われる。 概要[編集] k近傍法は以下の手順からなる: 入力と全学習データとの類似度(距離)測定 類似度上位 k 個の選出 選出されたデータの多数決あるいは平均 すなわち「入力とよく似た k 個のデータで多数決/平均する」単純なアルゴリズムである[1]。 例えば環境(気温/湿度/風速)から天気(雨/曇り/晴れ)を予測する分類問題を考える。k=5 のk近傍分類では、過去10

    k近傍法 - Wikipedia