タグ

パーセプトロンに関するKatagiriSoのブックマーク (5)

  • パーセプトロン - 人工知能に関する断創録

    今回は、4.1.7のパーセプトロンアルゴリズムを実装します。パーセプトロンは、2クラスの識別モデルで、識別関数は式(4.52)です。 パーセプトロンは、下の条件を満たすような重みベクトルwを学習します。教師信号は、クラス1のとき教師信号+1、クラス2のとき-1(0じゃない)なので注意。 上の条件をまとめるとxnが正しく分類されているときは、 を満たします。この条件はあとでプログラム中で使います。パーセプトロンは、正しく分類されているパターンに対してはペナルティ0を割り当て、誤分類されたパターンにペナルティ を割り当てます。上の式の値はxnが誤分類されたデータの場合、必ず正になるので注意。なのでパーセプトロンの誤差関数(パーセプトロン基準)は、 で与えられます。ここで、Mは誤分類されたパターンの集合です。この誤差関数は誤分類のパターンが多いほど値が大きくなるので誤差関数を最小化するようなwを

    パーセプトロン - 人工知能に関する断創録
  • ロジスティック回帰

    目次 1)ロジスティック回帰分析概説 2)ロジスティック回帰分析はどんな時に使用するか 3)ロジスティックモデルとは 4)ロジスティック回帰分析で得られるのは 5)オッズ比とは 6)オッズ比の95%信頼限界とは 7)ダミー変数について 8)変数選択上の注意点 9)ロジスティック回帰分析が可能な統計ソフト 10)ロジスティック回帰分析に関する参考書 1)ロジスティック回帰分析概説 近年の外国の論文にロジスティック回帰分析が非常に増えており、これが理解できないと論文を読めないことが多い。このことは、単変量解析では十分な解析ができないことが多いことを示唆しており、今後日の論文でも、ロジスティック回帰分析が確実に増加していくものと思われる。しかし、ロジスティック回帰分析を理解しようと思っても、やさしい教科書は非常に少ない。ロジスティック回帰分析は、疫学調査などの大規模なスタディには必須で

  • Microsoft PowerPoint - 05MLP.ppt

    1 情報意味論 パーセプトロンと多層パーセプトロン 櫻井彰人 慶應義塾大学理工学部 多義語: パーセプトロン � パーセプトロン: 同じ言葉で別のものを指している � 線型閾値素子: 次のスライド � 元祖パーセプトロン: 下記. これが当 ! � シグモイド素子: 今回の後半 � シグモイド素子のネットワーク: 多層パーセプトロンと呼ばれる: 今回の後半 � 線型閾値素子のネットワーク: 多層パーセプトロン. 稀 � 講義では, 習慣に従い「間違った」用法に従う � 元祖パーセプトロン � Rosenblatt 1962 � Minsky and Papert 1969 � パーセプトロン Perceptron: 単一ニューロンのモデル � 別名 線型閾値素子 Linear Threshold Unit (LTU) or Linear Threshold Gate (LTG) � 素

  • 第16回 最適化のための勾配法 | gihyo.jp

    前回、分類問題のもっとも簡単なモデルの1つであるパーセプトロンを紹介しました。 今回はそのパーセプトロンの解き方のヒミツを見ていくのですが、その前に機械学習の一般的なお話から入っていきます。 最適化 ここまでの連載の中で「学習」と呼んできたものの正体は、なにがしかの仮定から導き出した誤差関数を最小に、あるいは尤度関数や事後分布を最大にするパラメータを求めることでした。 最大化は、関数全体の符号を反転させれば最小化と同じことになりますから、関数を最小化する点を見つけるための一般的な方法があればとても便利そうです。その「関数の最小点を見つける」ことをこの分野では「最適化」と呼びます。また、最適化を行う対象となる関数は「目的関数」と呼びます。 プログラマが「最適化」という言葉を聞くと、プログラムの実行を高速に、あるいはサイズが最小になるようにコードを書き換える操作(あるいはコンパイラが実行バイナ

    第16回 最適化のための勾配法 | gihyo.jp
  • 単純パーセプトロンをPythonで組んでみる - 渋谷駅前で働くデータサイエンティストのブログ

    いきなり自分でハードル上げてみました(笑)。ちなみに何故単純パーセプトロンを最初に持ってきたのか?というと、id:echizen_tmさんのブログ記事でも触れておられる通り 機械学習には大きく分けて「識別関数」「識別モデル」「生成モデル」の3つの種類がある。このなかで識別関数は確率を使わないので初心者が入門するのに最適。 識別関数で有名なのはSVM(Support Vector Machine、サポートベクターマシン)。名前を聞いたことがある人も多いと思う。そこで早速SVMを学ぼうとすると敷居が高くて挫折しがち。 実はSVMは(大雑把に言うと)パーセプトロンという基礎的な識別関数に「マージン最大化」と「カーネル関数」という考え方を導入したもの。なので機械学習入門者は最初にパーセプトロンを学ぶのが良いと思われる。 それゆえ、実際に僕も以前Matlabで糞コード書きながら勉強してた時はやはり単

    単純パーセプトロンをPythonで組んでみる - 渋谷駅前で働くデータサイエンティストのブログ
  • 1