エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント2件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ニューラルネットワークでミニバッチの学習データを固定とランダムのハイブリッドにすると結果がよくなった - Qiita
はじめに 前回の記事を作成する過程で偶然よい結果を得たので紹介します。 ミニバッチの学習データをラ... はじめに 前回の記事を作成する過程で偶然よい結果を得たので紹介します。 ミニバッチの学習データをランダムにした際の学習結果が前々回より、よくなったので原因を調べていたら固定時 vs ランダム時の学習結果を比較しているつもりが固定時 vs 固定時+ランダム時の学習結果を比較していることがわかりました。 (前回の記事ではちゃんと固定時 vs ランダム時の比較になっています) 環境 python: 2.7.6 chainer: 1.8.0 学習内容 一般的なエポック毎にミニバッチの学習データをランダムシャッフルにした場合と、固定とランダムシャッフルのハイブリッドにした場合の違いを確認します。 学習させるのは例のごとくsin関数です。 [training data] input: theta(0~2π, 1000分割) output: sin(theta) 実装 モデルを2回作成 今回の発見はラン
2024/05/24 リンク