タグ

機械学習と数学に関するteracy_junkのブックマーク (10)

  • 「やさしく学ぶ 機械学習を理解するための数学のきほん」を執筆しました · けんごのお屋敷

    私が執筆した書籍 やさしく学ぶ 機械学習を理解するための数学のきほん がマイナビ出版から Amazon で 2017/9/20 より発売されます。Amazon 上では既に予約可能になっていますので、興味のある方は是非とも手に取ってみてください。 書は、以前よりこのブログ内で公開していた「やる夫で学ぶ機械学習シリーズ」というシリーズ物の記事をベースとして、加筆・修正を加えたものになります。ブログの記事がベースになってはいますが、追加で書いた分の方が多く、お金を出して買ってもらえるクオリティにするために、より丁寧な説明を心がけて書きました。元記事は「やる夫」と「やらない夫」というキャラクターを登場人物として、機械学習の基礎を面白おかしく丁寧に解説していくものでしたが、書籍化するに当たって「やる夫」と「やらない夫」をそのまま使うわけにもいかなかったので、プログラマの「アヤノ」とその友達で機械学

    teracy_junk
    teracy_junk 2017/09/11
    『元記事は「やる夫」と「やらない夫」というキャラクターを登場人物として、機械学習の基礎を面白おかしく丁寧に解説していくものでした』
  • 対数変化率の話。 - とあるMetaTraderの備忘秘録

    とある匿名希望の読者様から、対数変化率(対数価格比?)の計算式が分からないと質問がありましたので、簡単に説明しておきます。。 複数の銘柄の値動きの傾向を比較したい場合、価格の変化量(=今日の終値-昨日の終値)をそのまま扱うと不便です。 株式を思い浮かべると分かるように、100円の株が150円に上がるのと、1000円の株が1050円に上がるのでは、価格の変化量は同じ50円でも、それを同列にみなすのは無理があります。これを価格の変化率(=今日の終値÷昨日の終値)で考えると、 100円 -> 150円 1.5倍、50%増 1000円 -> 1050円 1.05倍、5%増 となり比較しやすくなります。 (100円の白株と1000円の赤株はそもそも同列に比べるべきでない..というツッコミは無しで..^^;; ところが、価格の変化率を採用すると、100円の株が150円に上がり、再び100円に戻った時、

    対数変化率の話。 - とあるMetaTraderの備忘秘録
  • 交差エントロピー(Cross Entropy) - neuralnetの日記

    2016 - 05 - 17 交差エントロピー(Cross Entropy) ※ MNIST for ML Beginnersの数学的な意味合い の続きです。 MNISTは、手書きの文字が0,1,2,..,9までの数字のうち、どの数字になるかを決めるというものでした。 例えば正解が2、つまり だったとして と のどちらがより正解に近いかを決めるための尺度として、交差 エントロピー というものを採用しています。 zとyの交差 エントロピー の定義は以下の通りであり、この値が小さいほど好ましい状態です。 正解がOne Hot(1つだけ100%で残りが0%)な確率分布なので、2項目以外は無視され、 となります。( は、 のj番目の変数を示します。) 上記のような簡単な計算で出てくる値が何を示すのか考えてみたいと思います。 エントロピー と自己情報量 ある確率分布 の エントロピー とは、各要素

  • MNIST for ML Beginnersの数学的な意味合い - neuralnetな日記

    Tensor flowの初めの一歩のチュートリアルであるMNIST For ML Beginners について、数学的な意味合いを書いてみようと思います。 (ブログに不慣れなもので、修正/継ぎ足しながら公開していくことをお許しください) まず、このチュートリアルで実行していることは、 入力がn次元の配列 (は実数)が複数個あった時 、個々の出力 ()を得る写像を用意して、出力が 個々のに対する解 (あるz=1以外はz=0) に近い結果を得れるように、Fを最適化することです。 ここで、の各要素 は実数と書きましたが、これは概念上の話であり、プログラムの実装上ではfloatになります。以後、集合(つまり配列)の要素は数学上は実数ですが、プログラム上はfloatであると考えて下さい。は、となるm個の(実数の)集合です。また任意の要素は0以上であり、したがって、は0から1までの値をとることになりま

    MNIST for ML Beginnersの数学的な意味合い - neuralnetな日記
  • ソフトマックス関数 | 高校数学の美しい物語

    ソフトマックス関数とは yi=exiex1+ex2+⋯+exn (i=1,…,n)y_i=\dfrac{e^{x_i}}{e^{x_1}+e^{x_2}+\cdots +e^{x_n}}\:(i=1,\dots,n)yi​=ex1​+ex2​+⋯+exn​exi​​(i=1,…,n) という関数のこと。 各成分が正で,合計が 111 になるように調整するという役割を持つ。 ソフトマックス関数の定義式: yi=exiex1+ex2+⋯+exn (i=1,…,n)y_i=\dfrac{e^{x_i}}{e^{x_1}+e^{x_2}+\cdots +e^{x_n}}\:(i=1,\dots,n)yi​=ex1​+ex2​+⋯+exn​exi​​(i=1,…,n) について,説明します。 nnn 個の実数 (x1,⋯ ,xn)(x_1,\cdots,x_n)(x1​,⋯,xn​) を入力とし,

    ソフトマックス関数 | 高校数学の美しい物語
  • 機械学習に必要な高校数学やり直しアドベントカレンダーのカレンダー | Advent Calendar 2016 - Qiita

    今年、機械学習を少なくとも一度は手にした人は多いのではないでしょうか。 数ページめくっていると、数式のオンパレードで、「うっ」てなって、静かにを閉じてから数ヶ月。 すでに棚の肥やしになっていたりしませんか? それは私です。これはイカンと思って 機械学習を理解するための高校数学のおさらいをしようよ!で、作りました。 誰が書くの? すでに、おさらいが終わった人、 これを機会におさらいを始めてみようと思った人、 おさらいする必要もなく理解している人、 一緒にこのアドベントカレンダーを作りませんか? 何を書いたらいいの? 得意な分野の説明をわかりやすく説明、三角関数とか行列とか統計とか・・・ 自分の勉強法の紹介 オススメの書籍やオススメ記事やオススメ勉強法の紹介 などなど 来年はもっと理解出来た状態で、機械学習と向き合う年にしましょう!

    機械学習に必要な高校数学やり直しアドベントカレンダーのカレンダー | Advent Calendar 2016 - Qiita
    teracy_junk
    teracy_junk 2016/11/07
    俺得すぎる
  • 研究分野と周辺

    静岡理工科大学総合情報学部知能インタラクション(金久保)研究室に関係する研究分野を紹介するページ群への導入ページです。

  • [WIP]単純ベイズ分類器がまったく単純じゃないので入門 | moxt

    [WIP]単純ベイズ分類器がまったく単純じゃないので入門 | moxt
  • ナイーブベイズ分類器を頑張って丁寧に解説してみる - Qiita

    ============================================= ナイーブベイズ分類器、あるいは単純ベイズ分類器という分類器について解説したいと思います。 何それ?という方。まずはわけがわからないとしてもWikipediaのエントリを見てみましょう。 http://ja.wikipedia.org/wiki/単純ベイズ分類器 上の説明でよくわかったという方はこれ以上先に進む必要はありません。 ナイーブベイズ分類器は、一言でいうと、 分類問題ってベイズの定理を使えば解けるんじゃね? というものです。入力 $X$ が与えられた時に出力 $Y$ が得られる確率 $P(Y|X)$ は以下の等式で表す事が出来ます: $$ P(Y|X) = \frac{P(Y) P(X|Y)}{P(X)} $$ これがベイズの定理です。 $P(Y)$ は事前分布と呼ばれ、 $P(X|Y)$

    ナイーブベイズ分類器を頑張って丁寧に解説してみる - Qiita
  • プログラマが解くのに1時間かかる問題を機械学習に放り込む話 | ぱろすけのメモ帳

    プログラマが解くのに1時間かかる問題を機械学習に放り込む話 By ぱろすけ on 4月 11th, 2012 皆様、 Twitter やら facebook で数カ月前に爆発的に拡散された以下の問題をご存知でしょうか。 ご存知の方が多いでしょうね。単に、イコールの左側の4つの数字の丸の数の合計がイコールの右側に等しい、それだけですね。とても簡単な問題です。ちなみに僕は解けませんでした。 これについて、昨日このようなエントリが投稿され、話題になっています。 プログラマが解くのに1時間かかるという問題が普通にプログラマな方法で5分で解ける話 http://d.hatena.ne.jp/nowokay/20120410 こりゃあ炎上するでしょうねえ。だって、プログラマも何も関係なく、ふつうに問題を解いているのですから。 先ほどのエントリでは、イコールの左側の数値は変数であり、それを足しあわ

    teracy_junk
    teracy_junk 2012/04/12
    メモ:多層パーセプトロンのニューラルネットワーク
  • 1