タグ

Pythonとneural networkに関するxiangzeのブックマーク (2)

  • 共役勾配法によるロジスティック回帰のパラメータ推定 - 人工知能に関する断創録

    Courseraの機械学習ネタの続き。今回はロジスティック回帰をやってみます。回帰と付くのになぜか分類のアルゴリズム。以前、PRMLの数式をベースにロジスティック回帰(2010/4/30)を書いたけど今回はもっとシンプル。以下の3つの順にやってみたいと思います。 勾配降下法によるパラメータ最適化 共役勾配法(2014/4/14)によるパラメータ最適化(学習率いらない!速い!) 正則化項の導入と非線形分離 ロジスティック回帰は線形分離だけだと思ってたのだけど、データの高次の項を追加することで非線形分離もできるのか・・・ 使用したデータファイルなどはGithubにあります。 https://github.com/sylvan5/PRML/tree/master/ch4 勾配降下法によるパラメータ最適化 2クラスのロジスティック回帰は、y=0(負例)またはy=1(正例)を分類するタスク。ロジステ

    共役勾配法によるロジスティック回帰のパラメータ推定 - 人工知能に関する断創録
  • 前回の続き。。logistic_sgd の意味が分かったのか? インポートエラーで悩んでいた俺はバカなのか?! - clew

    さて。。 前回記事でストップしていた Deep Belief Networks のサンプルコード実行。 これは 「logistic_sgd というモジュール?がないよ?」 というエラーが原因のようでした。 それで、「そいつがあればいいんじゃね?」 という単純な考えで、あちこち探し回ってたんですね。。 ところが 「どこにもない。。」 もしかして インストール時点で間違っていた。。。もしくは抜け落ちがあったのか?と思い、テストとかすんごい時間をかけてやってみたわけです。 んー、しかしこれといって変なところは見当たらないようだし・・・theano のインストールもちゃんとできてるようだ・・(まだ理解できない部分はたくさんあるんだけれども・・・若干おかしな点や不明な点はいろいろある) ということで途方に暮れていたのでした。。 今回、ひょんな思い付きで ”ドキュメント内サーチ” をかけてみたんですよ

  • 1