あとで読むに関するyuripapagenoのブックマーク (3)

  • B級科学者もどきの憂鬱 行列計算ライブラリEigenで固有値の計算

    お久しぶりです。もうすぐ年明けですね。 もう何ヶ月も全然書いてなかったので、 次の更新はTIPSの話にしたかったのですが、 記事にできるほど進んでません! というわけで今回は全然違うテーマです。 最近は数値シミュレーションを色々とやっています。 その過程で、行列計算にEigenというC++用ライブラリを導入しました。 色々見てる限り、結構速そうで導入も楽で使いやすそうです。 行列計算だけでなく、普通の配列を扱う計算で使っても、 アセンブラレベルで並列化したりしてくれるので、 普通にC++で書くより速いそうです。 これに関してはまだ確かめてませんけど。 導入は、公式サイトから圧縮ファイルをダウンロードし、 解凍して出来たファイルをインクルードパスに追加するだけです。 ヘッダファイルだけで出来ているので、コンパイル等は不要です。 例として、実数行列の固有値を求めるコードを書いてみます。 #in

    yuripapageno
    yuripapageno 2019/12/03
    行列の固有値取得に複素数を前提とした出力がしたい場合の実装方法。
  • Tensorflowの精度低下はlog(0)のせいだった - Qiita

    最近TensorFlowを使い始めたのですが,学習中に突然精度が低下して変わらなくなる問題が起きていました. 以下だと70ステップ目から突然精度が低下してます. . . . step:67 train:0.894584 test:0.756296 step:68 train:0.900654 test:0.756944 step:69 train:0.897526 test:0.758796 step:70 train:0.361345 test:0.333333 step:71 train:0.361345 test:0.333333 step:72 train:0.361345 test:0.333333 step:73 train:0.361345 test:0.333333 . . . (pdb) w1 array([[[[ nan, nan, nan, ..., nan, nan

    Tensorflowの精度低下はlog(0)のせいだった - Qiita
    yuripapageno
    yuripapageno 2019/01/11
    cross_entropyでlog関数を正規化する方法!
  • Neural Networkでの失敗経験やアンチパターンを語る - のんびりしているエンジニアの日記

    皆さんこんにちは お元気ですか。私は元気です。 今日は珍しくNeural Networkを使っていく上での失敗経験について語ります。 学習の時に案外、失敗するのですが、だいたい原因は決まっています。そう大体は・・・ ということで、今回は失敗の経験、アンチパターンのようなものを書こうと思います。 Trouble1:学習時にNanを叩き出す。 原因1 cross-entropy誤差を使っている。 原因2 結果が小さすぎて、0と認識される。 原因3 重みがあらぬ方向へ学習する。 Trouble2:収束しない 原因1 学習率が高すぎる 原因2 学習率が低すぎる 原因3 適切な誤差関数ではない 原因4 活性化関数を誤った 原因5 そもそも入力が誤っている Trouble3:Validation Scoreが低い 原因1 過学習しているにも関わらず、気づかなかった。 原因2 与えるデータとラベルの1対

    yuripapageno
    yuripapageno 2019/01/11
    出力がnanになる原因。
  • 1