タグ

ブックマーク / qiita.com/kenmatsu4 (6)

  • 【統計学】尤度って何?をグラフィカルに説明してみる。 - Qiita

    統計学や機械学習をを勉強していると「尤度」という概念に出会います。まず読めないというコメントをいくつかいただきましたが、「尤度(ゆうど)」です。「尤もらしい(もっともらしい)」の「尤」ですね。犬 じゃありませんw 確率関数や確率密度関数を理解していれば数式的にはこの尤度を処理できると思うのですが、少し直感的な理解のためにグラフィカルに解説を試みたいと思います。 コードの全文はGithub( https://github.com/matsuken92/Qiita_Contents/blob/master/General/Likelihood.ipynb )にも置いてあります。 正規分布を例にとって 正規分布の確率密度関数は f(x)={1 \over \sqrt{2\pi\sigma^{2}}} \exp \left(-{1 \over 2}{(x-\mu)^2 \over \sigma^2

    【統計学】尤度って何?をグラフィカルに説明してみる。 - Qiita
  • 確率的勾配降下法とは何か、をPythonで動かして解説する - Qiita

    勾配降下法は何に使う? 勾配降下法は統計学や機械学習で多く使われています。特に機械学習というのは基的に何かしらの関数を最小化(最大化)する問題を数値解析的に解くことに帰結する場合が多いです。(e.g. 最小二乗法 → 誤差の二乗和を最小化(参考)、ニューラルネットワークのパラメータ決定 etc...) なので、基的にはひたすら微分して0となるところを探す問題ですね、微分して0。で、その微分して0となる値は何か、をプログラムで解く場合に重要になるのがこの勾配降下法です。幾つか勾配法にも種類がありますがここでは最急降下法、確率的勾配降下法の2つを扱います。まずはイメージをつかむために1次元のグラフで確認していきたいと思います。 1次元の場合 1次元の場合は、確率的という概念はなく、ただの勾配降下法になります。 (どういうことか、はのちほど) 1次元の例は、正規分布をマイナスにしたものを使っ

    確率的勾配降下法とは何か、をPythonで動かして解説する - Qiita
  • 【数学】「内積」の意味をグラフィカルに理解すると色々見えてくる - Qiita

    線形代数の勉強を始めると割とすぐ出てきますよね、内積。 計算自体はさほど難しくはないのだけれども、いまいちピンとこないという方、それなりにいるんじゃないでしょうか。私もそうでした。 なので、今回の可視化シリーズは「内積」にスポットを当ててみます。 また、統計学でもいたるところにも内積で理解できる事項が出てきて、「内積すげー」ってなります 。 ベクトルってデータの並びですので、統計学に非常に関連するんですね。統計学での扱われ方は次回からですが、まずは内積から。 #0.先に結論を少々# ごにょごにょ前説が必要なので、内積の意味の結論だけ先にまず書きたいと思います。 内積は数式としては、下記のように書くことができます。 それを視覚的に表すと、下記のようになりベクトル${\bf a}$の長さに、ベクトル${\bf c}$の長さをかけたもの、という意味を持たせることができます。(${\bf c}$は

    【数学】「内積」の意味をグラフィカルに理解すると色々見えてくる - Qiita
  • 【ディープラーニング】ChainerでAutoencoderを試して結果を可視化してみる。 - Qiita

    ChainerでAutoencoderを試してみる記事です。前回の記事、「【機械学習】ディープラーニング フレームワークChainerを試しながら解説してみる。」の続きとなります。ディープラーニングの事前学習にも使われる技術ですね。 記事で使用したコードはコチラから取得できます。 1.最初に AutoencoderとはAuto(自己) encode(符号化)er(器)で、データを2層のニューラルネットに通して、自分自身のデータと一致する出力がされるようパラメーターを学習させるものです。データだけあれば良いので、分類的には教師なし学習になります。 学習フェーズ こんなことをして何が嬉しいのかというと、 入力に合わせたパラメーター$w_{ji}$を設定できる。(入力データの特徴を抽出できる) その入力に合わせたパラメーターを使うことでディープなニューラルネットでの学習を可能にする(ランダム値

    【ディープラーニング】ChainerでAutoencoderを試して結果を可視化してみる。 - Qiita
  • ピザで理解する分数の割り算の意味 - Qiita

    分数の割り算って計算はみんなできるけど「意味はよくわかんない」、という人が意外といるんじゃないかと思っています(そうでない方はすみません・・・)この「分数の割り算の意味」についてちょっと書いてみようと思います。これがイメージできると数式を読むときに意味を理解しやすくなると思っています。 1. 分数の割り算の操作 この分数の割り算のオペレーション(分数を逆数にして掛け算にする)、 という計算自体は問題無いと思います。この計算の「意味」について次項から見ていきます。 2. 割り算の概念 ストレートに考えると割り算というのは、例えば$30\div5=6$の場合、30個を5分割すると6個ずつになるというイメージで捉えられます。 この考え方で、次に$30\div (1/5)=150$を当てはめてしまうと、30個を1/5分割すると150個ずつになる、という???な感じになっちゃいますね。 ちょっとアプ

    ピザで理解する分数の割り算の意味 - Qiita
    tokuryoo
    tokuryoo 2015/07/01
    「割り算は単位の変換」
  • 【機械学習】ディープラーニング フレームワークChainerを試しながら解説してみる。 - Qiita

    今話題のDeep Learning(深層学習)フレームワーク、Chainerに手書き文字の判別を行うサンプルコードがあります。こちらを使って内容を少し解説する記事を書いてみたいと思います。 (記事のコードの全文をGitHubにアップしました。[PC推奨]) とにかく、インストールがすごく簡単かつ、Pythonが書ければすぐに使うことができておすすめです! Pythonに閉じてコードが書けるのもすごくいいですよね。 こんな感じのニューラルネットワークモデルを試してみる、という記事です。 主要な情報はこちらにあります。 Chainerのメインサイト ChainerのGitHubリポジトリ Chainerのチュートリアルとリファレンス 1. インストール まずは何はともあれインストールです。ChainerのGitHubに記載の"Requirements" ( https://github.co

    【機械学習】ディープラーニング フレームワークChainerを試しながら解説してみる。 - Qiita
  • 1