タグ

2013年5月9日のブックマーク (23件)

  • 失読症でも読みやすくなるデザインを駆使しまくったフォント「Dyslexie」

    By by Janine 一般的な理解能力などに異常がないにも関わらず、文字の読み書き学習に著しい困難を抱える障害を失読症(ディスレクシア)と呼びます。エジソンやトム・クルーズ、スティーブン・スピルバーグなども失読症に悩まされており、アメリカでは2割近くの人々が何らかの形で読字障害に関わる症状を持つという調査結果もあるのですが、失読症を抱えていても文字を読めるようにするフォントが「Dyslexie」です。 Typeface Dyslexie for people with dyslexia - studiostudio http://www.studiostudio.nl/ 失読症の顕著な例としては数字の「7」と「seven」を同一のものとして理解ができなかったり、文字がひっくり返って記憶されたりして正確に覚えられない、というものがあり、その他にも2つの文字の違いがわからない、文字や単語の

    失読症でも読みやすくなるデザインを駆使しまくったフォント「Dyslexie」
    aidiary
    aidiary 2013/05/09
  • Photo Tourism: Microsoft Research, Interactive Visual Media Group

    Photo Tourism: Microsoft Research, Interactive Visual Media Group
    aidiary
    aidiary 2013/05/09
    PRMLのサポートページ
  • GitHub - daimatz/w8prml

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - daimatz/w8prml
    aidiary
    aidiary 2013/05/09
    PRMLの演習問題の解答例など
  • 音響モデルの作成 - MMDAgent & Project-NAIP wiki

    HTK-3.4.1 ダウンロード:http://htk.eng.cam.ac.uk/download.shtml ダウンロードにはユーザー登録が必要です。 Linux/Unix downloads > HTK source code から HTK-3.4.1.tar.gz をダウンロードしてください。 HDecode-3.4.1 ダウンロード:http://htk.eng.cam.ac.uk/prot-docs/hdecode.shtml ダウンロードにはユーザー登録が必要です。 Linux/Unix downloads > HDecode-3.4.1.tar.gz をダウンロードしてください。 HTS-2.2_for_HTK-3.4.1 ダウンロード:http://hts.sp.nitech.ac.jp/?Download Source code から HTS-2.2_for_HTK-3

  • 一年で身に付ける!Rと統計学・機械学習の4ステップ - データサイエンティスト上がりのDX参謀・起業家

    久しぶりの投稿です。この一年間、Rの勉強会などに参加したり主催したりしてきて、後輩や勉強会の方々の話をいろいろ聞くとこができました。そんな中、一年間でRと統計学・機械学習を身に付けれるようなフローを作れるかも?と思ったので、ここで記録しておきます。統計学や機械学習は理論を勉強するだけでなく、Rで実際に解析してみることで、より理解が深まります。 ステップ1. 分布・検定 理論 統計学入門 (基礎統計学?) 作者: 東京大学教養学部統計学教室出版社/メーカー: 東京大学出版会発売日: 1991/07/09メディア: 単行購入: 158人 クリック: 3,604回この商品を含むブログ (79件) を見る R Rによるやさしい統計学 作者: 山田剛史,杉澤武俊,村井潤一郎出版社/メーカー: オーム社発売日: 2008/01/25メディア: 単行購入: 64人 クリック: 782回この商品を含

    一年で身に付ける!Rと統計学・機械学習の4ステップ - データサイエンティスト上がりのDX参謀・起業家
  • ディリクレ分布まとめ - あらびき日記

    この記事は abicky.net の ディリクレ分布まとめ に移行しました

    ディリクレ分布まとめ - あらびき日記
  • 機械の代わりに人間が学習入門

    [Yang, Downey and Boyd-Graber 2015] Efficient Methods for Incorporating Knowl...Shuyo Nakatani

    機械の代わりに人間が学習入門
  • これからはじめる人のための機械学習の教科書まとめ - EchizenBlog-Zwei

    最近では企業における機械学習の認知度も高まっていてエンジニアの求人募集でも「望ましいスキル:機械学習」というのをよく見かける。特にweb系の企業だと当たり前のように機械学習を活用した魅力的なサービスが生み出されているようだ。 そんなわけで先日書いた機械学習の入門記事もそれなりに好評で末尾の教科書リストも結構参考にしていただいた様子。ということで、これから機械学習をはじめる人のためにオススメの教科書を10冊ほどピックアップしてみた。 幸いにして機械学習の分野には良書が多い。5年前はナイーブベイズすら知らなかった私も、これらの教科書のおかげでなんとか機械学習を使えるようになりました!(個人の体験談です。効果には個人差があります) 参考: 機械学習超入門 〜そろそろナイーブベイズについてひとこと言っておくか〜 - EchizenBlog-Zwei 最初に既存の機械学習の教科書まとめを挙げておくの

    これからはじめる人のための機械学習の教科書まとめ - EchizenBlog-Zwei
  • 機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei

    機械学習には大きく分けて「識別関数」「識別モデル」「生成モデル」の3つの種類がある。このなかで識別関数は確率を使わないので初心者が入門するのに最適。 識別関数で有名なのはSVM(Support Vector Machine、サポートベクターマシン)。名前を聞いたことがある人も多いと思う。そこで早速SVMを学ぼうとすると敷居が高くて挫折しがち。 実はSVMは(大雑把に言うと)パーセプトロンという基礎的な識別関数に「マージン最大化」と「カーネル関数」という考え方を導入したもの。なので機械学習入門者は最初にパーセプトロンを学ぶのが良いと思われる。 そこで早速パーセプトロンを作ってみよう!というのが記事の意図するところ。自分で実装できるとモチベーションが維持しやすいので、詳しく理論を学ぶ前にまずは作ってみようという考え。ちなみに実装にはperlを用いた。 参考: これからはじめる人のための機械学

    機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei
  • 多項式フィッティングのワナ - Preferred Networks Research & Development

    今回は新しい試みとして、かわいい柴犬の画像によっていろいろなことをごまかすことにチャレンジしています。なお、画像はflickrからCCライセンスのものをお借りしております。画像をクリックするともっと大きいのが見れるよ。 さて、題に移りましょう。今日のテーマは多項式フィッティングです。より正確には、多項式フィッティングに関して、私がいくつかの落とし穴にはまった記録です。 多項式フィッティングというと、観測されたデータから項の係数を決める問題です。 もう少し具体的に書くと、 \(f(x) = w_0 + w_1 x + w_2 x^2 + w_3 x^3 \ldots\) の\(w_0, w_1, \ldots\)の具体的な値をどう決めれば得られたデータに近い曲線が得られるか、というような問題です。ただし、観測したデータには必ずノイズが乗るものなので、誤差が0になるような曲線を作ればそれでよ

    多項式フィッティングのワナ - Preferred Networks Research & Development
  • ベイズの公式は地味に難しいので、確率の乗法公式を2回使おう - 木曜不足

    ベイズの公式はこんな形をしている。 これは実際に使おうと思ったら、意外と難しい。 例えば PRML (5.164) 式はこうなっている。 これをベイズの公式から出そうとしたら X と Y をどうしたらいいのやら。いや、なんか X と Y に当てはめようがないのもあるぞ。 そもそも「ベイズの公式を正しく憶える」のもなにげにハードルが高い。えーと、X と Y と X|Y と Y|X のどれが上で下で……。 でも、確率の乗法公式を2回使う方法なら、簡単。 まず同時分布を見極める。 上の (5.164) 式の右辺 p([A]|・)p([B]|・) の [A][B] の位置に出てくる変数に注目しておいて欲しい。 同時分布の確率変数は [A] と [B]、つまり w と D であり、残りは given なパラメータ or 変数なので、 がここで注目したい同時分布。 次はこの同時分布を [A] に使われ

  • 「数式を numpy に落とし込むコツ」を HMM に当てはめてみる - 木曜不足

    数式をnumpyに落としこむコツ View more presentations from Shuyo Nakatani という発表を Tokyo.SciPy #2 でさせてもらったのだが、発表&資料作成の時間の関係で、実際に数式を解釈する例を2つしか入れられなかったのが残念なところ。 今、社内 PRML 読書会で 13章の隠れマルコフをやっつけていて、その Baum-Welch の更新式がちょうどいい題材になっていることに気付いたので、ここで取り上げてみる。 (PRML 式 13.36) 結構複雑な印象のある数式だが、こいつも資料の流れに従えば簡単に実装できてしまうことを見ていこう。 数式を読み解く 数式を書き換える numpy に「逐語訳」する というわけでまず「読み解き」だが、これが一番重要なステップ。 特に今回の式の場合は , , の正体をちゃんと見極めておかないといけない。 「正

    「数式を numpy に落とし込むコツ」を HMM に当てはめてみる - 木曜不足
  • Rと手作業で覚える最尤法 - 餡子付゛録゛

    OLSより進んだ統計手法で最初に覚えるのは最尤法だと思います。大半の人はツールとして知っていて、あまり中身を意識していない気がするのですが、「尤度」の説明無しで『尤度が最大になるパラメーターを求める方法』と言う説明が横行しているのは、問題があるかも知れません。 最尤法は、ある分布から観測値が取り出されたとして、“そうなる確率”が最も高くなるように分布の具体的な形状を決めるやり方です。“そうなる確率”を尤度と言います。こう書くと易しい事なのか難しい事なのか判別もつかないと思うので、実際に最尤法を解いてみましょう。 まず、何も考えずにトライ&エラーで最尤法を試みるやり方を説明した後に、教科書的な最尤法の解法を説明します。 1. 何も考えずにトライ&エラーで最尤法を試みる ある正規分布から値を3つ取り出したら、11 13 23だったとしましょう。このサンプルが“もっともらしい”正規分布の平均と分

  • 2012-02-04

    以前のエントリでも述べましたが、bag of visual words(BoVW)は一般物体認識における標準的な画像特徴表現であり、非常によく用いられます。ですが、BoVWはこの3年ほどで急速に進歩しており、よく見られる「k-meansでクラスタリング → ヒストグラム作成 → 非線形SVM」という定石は既に時代遅れのものとなりつつあります。 今日は、BoVWに関連する最近のトレンドをいくつか見てみたいと思います。実は、これは一般物体認識の大規模化と深い関わりがあります。古典的なBoVWでは非線形カーネルの利用が必要でしたが、最近の手法は線形識別器を直接適用できるように考えて設計されています。ここがうまくいけばあとは、いかにして大規模な線形識別器を学習するか、という機械学習やデータマイニング等でよく議論される問題まで落ちてきます。これにより、一般物体認識もかなり大きな規模のデータで学習・認

    2012-02-04
    aidiary
    aidiary 2013/05/09
  • SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ

    SVMツールで有名なLIBSVMの作者らがまとめた "A Practical Guide to Support Vector Classification" という良資料[1]の日語解説資料をまとめてみたので公開. SVM実践ガイド (A Practical Guide to Support Vector Classification) View more presentations from sleepy_yoshi 元資料はこちら 資料作成のきっかけは,まわりの人に「SVMとかいう手法使ったんだけど,機械学習よくわからなくてさ」という感じで相談を受けて「カーネルは何使ってるの?」「素性のスケーリングはした?」「Cパラメータは調整した?」というようなことを聞くのだけれど,「???」というやりとりにうんざりしたから. その都度,Cパラメータというものがありまして〜,カーネルというものが

    SVM実践ガイド (A Practical Guide to Support Vector Classification) - シリコンの谷のゾンビ
  • 「機械学習基礎」簡単な問題を解いて理解しよう!前篇|【Tech総研】

    2012年12月からCodeIQで機械学習分野の問題を3題出題しました。 第1問から第3問で一連のストーリー(「金とキノコ」3部作)になっています。3問とも、機械学習の基礎的な知識と手元のPCで解けるようなやさしめの設定にしてあります。 第1問と第2問はクラス分類を使って、物の金貨と物のキノコを見分ける問題です。第3問は、異常(外れ値)検出で、選んではいけない玉を見つけ出す問題です。 今日は、第1問と第2問について、解説をします。 以下の解説ではRによるコード例を示していますが、いずれも数行のコードで解くことができます。

    「機械学習基礎」簡単な問題を解いて理解しよう!前篇|【Tech総研】
  • ゆるふわ Restricted Boltzmann Machine - Risky Dune

    Deep Learningで用いられるらしいということで, Restricted Boltzmann Machine(RBM)について調べたので概要とPythonによる実装例をまとめた. 主にAn Introduction to Restricted Boltzmann Machinesを参考にしているので, 数式の詳細はそちらをあたって欲しい. 概要 Restricted Boltzmann Machineは分布をモデル化するアルゴリズム. 目的は, 与えられた観測変数の集合からその確率分布を求めることだ. RBMでは観測変数の他に隠れ変数を導入する. そして, を求めたのち, 周辺化によってを求める. RBMではは次のように表される. ただし, . Eはエネルギーと呼ばれるもので, エネルギーが小さい状態程起こる確率は高くなる. 水は低きに流れる的な精神. また, の3つはこのモデルの

    ゆるふわ Restricted Boltzmann Machine - Risky Dune
  • PythonによるDeep Learningの実装(Restricted Boltzmann Machine 編) - Yusuke Sugomori's Blog

    機械学習の分野で最近話題になってきている Deep Learning。 Deep Learningでは、何層ものニューラルネットワークを用いて訓練・予測を行いますが、各層でそれぞれ学習を行い、段階的に特徴を抽出していくのがこれまでの機械学習手法と異なる点です。 最近の動向については、 Learning Deep Architectures for AI (Bengio 2009) で詳しくまとめられています。 今回は、Deep Learningにおける各層の学習で用いられている Restricted Boltzmann Machine (RBM, 制約付きボルツマンマシン)のコードを紹介します。 ソースは以下。 Referencesにも書いてあるように、RBMを含むDeep LearningのコードはDeepLearningTutorialsにあるのですが、theanoという特殊なpyth

    PythonによるDeep Learningの実装(Restricted Boltzmann Machine 編) - Yusuke Sugomori's Blog
  • Deep learning勉強会20121214ochi

    Ohsawa GoodfellowDeep Learning Japan 主宰 / 東京大学 特任准教授 at University of Tokyo, Deep Learning Japan

    Deep learning勉強会20121214ochi
  • RでDeep Learningの一種をやってみる - データサイエンティスト上がりのDX参謀・起業家

    このブログのTips052で、RでDeep Learningをやっているのを紹介してもらったので、自分も試してみました。 「Deep Learningすげぇ!!」という話は良く聞くのですが、亜種がいっぱいあるみたいで、まだあまり調査しきれてません。また時間があれば調査してまとめられると良いのですが。 以下、RでDA(Denoising Autoencoders)を実行するプログラムです。 sigmoid <- function(x){ return (1 / (1 + exp(-x))) } dA <- setRefClass( Class="dA", fields=list(input="matrix", n_visible="numeric", n_hidden="numeric", W="matrix", W.prime="matrix", hbias="vector", vbias

    RでDeep Learningの一種をやってみる - データサイエンティスト上がりのDX参謀・起業家
  • Akisato Web Site Annex: Deep networkのCUDA実装を試してみる

    どうも,@_akisato (= @_akisato_) です. 記事は,@sakanazensen さんが企画された, Computer Vision Advent Calendar 2012 の12月18日分として,執筆しております. 計算機科学の大変狭い範囲で,deep neural networksやdeep learningなどと呼ばれる言葉が,爆発的に流行しています. ・ ニューラルネットの逆襲: Preferred Research by @hillbig さん [記事] ・ ICML2012論文を紹介した,名古屋CVPRML勉強会資料 by @takmin さん [slideshare] ・ (自称)興味はあったけど調べるの面倒くさくて諦めた人向けの,機械学習×プログラミング勉強会 vol.2 資料 by @kazoo04 さん [slideshare] ・ つい最

    aidiary
    aidiary 2013/05/09
  • データマイニングコンペティションサイト Kaggle にも Deep Learning ブームがきてるかと思ったのでまとめる - 糞糞糞ネット弁慶

    概要 最近話題の Deep Learning,NIPS や ICML,CVPR といった世界の話だろうと思っていたら Kaggle で Deep learning が去年一件,今年に入って更に一件優勝していたのでまとめる. Kaggle Kaggle: Your Home for Data Science おなじみのデータマイニングコンペティションサイト.データと目的関数が与えられた上で最も高いスコアを出したチームに賞金が出る. 最近では KDD Cup や http://www.kaggle.com/c/challenges-in-representation-learning-the-black-box-learning-challenge:title=ICML2013 workshop competition],や RecSys2013 Competition,レストランレビューサイ

    データマイニングコンペティションサイト Kaggle にも Deep Learning ブームがきてるかと思ったのでまとめる - 糞糞糞ネット弁慶
  • 実際のサイト上で動作するチュートリアルが簡単に作れるIntro.jsが便利すぎる件 - (゚∀゚)o彡 sasata299's blog

    2013年05月08日18:21 JavaScript 実際のサイト上で動作するチュートリアルが簡単に作れるIntro.jsが便利すぎる件 さて、先日簡単なチュートリアル作ろうと思ったんですが、どうやるのが良いのかなーと思って悩んでました。キャプチャ取ってそこに説明文を書いて…ってしてもいいんですけど、キャプチャだと一部分なのでサイト上のどの辺なのかわかりにくかったり、サイト側は変更したのにキャプチャが古いままとかになったりしちゃいますよね>< とか思って探してみたらこちらの Intro.js が便利だったので紹介してみます。 さて、この Intro.js を使うとですね、サイト上で動作するチュートリアルを簡単に作れるんですよ。使い方も簡単で、動作させたい要素に対して data-intro (表示する説明文) と data-step (チュートリアルの何番目に表示するか) を指定します。チ

    aidiary
    aidiary 2013/05/09