あとで読むとTensorflowに関するyuripapagenoのブックマーク (2)

  • Tensorflowの精度低下はlog(0)のせいだった - Qiita

    最近TensorFlowを使い始めたのですが,学習中に突然精度が低下して変わらなくなる問題が起きていました. 以下だと70ステップ目から突然精度が低下してます. . . . step:67 train:0.894584 test:0.756296 step:68 train:0.900654 test:0.756944 step:69 train:0.897526 test:0.758796 step:70 train:0.361345 test:0.333333 step:71 train:0.361345 test:0.333333 step:72 train:0.361345 test:0.333333 step:73 train:0.361345 test:0.333333 . . . (pdb) w1 array([[[[ nan, nan, nan, ..., nan, nan

    Tensorflowの精度低下はlog(0)のせいだった - Qiita
    yuripapageno
    yuripapageno 2019/01/11
    cross_entropyでlog関数を正規化する方法!
  • Neural Networkでの失敗経験やアンチパターンを語る - のんびりしているエンジニアの日記

    皆さんこんにちは お元気ですか。私は元気です。 今日は珍しくNeural Networkを使っていく上での失敗経験について語ります。 学習の時に案外、失敗するのですが、だいたい原因は決まっています。そう大体は・・・ ということで、今回は失敗の経験、アンチパターンのようなものを書こうと思います。 Trouble1:学習時にNanを叩き出す。 原因1 cross-entropy誤差を使っている。 原因2 結果が小さすぎて、0と認識される。 原因3 重みがあらぬ方向へ学習する。 Trouble2:収束しない 原因1 学習率が高すぎる 原因2 学習率が低すぎる 原因3 適切な誤差関数ではない 原因4 活性化関数を誤った 原因5 そもそも入力が誤っている Trouble3:Validation Scoreが低い 原因1 過学習しているにも関わらず、気づかなかった。 原因2 与えるデータとラベルの1対

    yuripapageno
    yuripapageno 2019/01/11
    出力がnanになる原因。
  • 1