![](https://cdn-ak-scissors.b.st-hatena.com/image/square/6283fffd1b1a1bc1a0a62f732994d79dbb1cd138/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9Y2hhaW5lciVFMyU4MSVBNyVFMyU4MyU5RiVFMyU4MyU4QiVFMyU4MyU5MCVFMyU4MyU4MyVFMyU4MyU4MSVFNSVBRCVBNiVFNyVCRiU5MiVFNiU5OSU4MiVFMyU4MSVBRSVFMyU4MyVBOSVFMyU4MyVCMyVFMyU4MyU4MCVFMyU4MyVBMCVFNSU4NyVBNiVFNyU5MCU4NiVFNiU5QyU4OSVFNyU4NCVBMSVFMyU4MSVBRSVFOSU4MSU5NSVFMyU4MSU4NCVFMyU4MiU5MiVFNyVBMiVCQSVFOCVBQSU4RCVFMyU4MSU5NyVFMyU4MSU5RiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTU2JnM9Zjk4ZmIzMjgwZmYxZGUxYTFkNjRmOWY4ODdiMzdlNjc%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBoaWtvYm90Y2gmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTVjNmZiMDY4NGMyNDQ4ZWYwNGI2Y2JkMWJiYWU3NTI2%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3Dcb817ce466df36b88fd889c1d52f9f90)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
chainerでミニバッチ学習時のランダム処理有無の違いを確認した - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
chainerでミニバッチ学習時のランダム処理有無の違いを確認した - Qiita
はじめに ディープラーニングではエポック毎にミニバッチの学習データをランダムにシャッフルするのが一... はじめに ディープラーニングではエポック毎にミニバッチの学習データをランダムにシャッフルするのが一般的みたいなのでその効果を確かめてみました。 環境 python: 2.7.6 chainer: 1.8.0 学習内容 エポック毎にミニバッチの学習データを固定にした際とランダムにした際の違いを確認します。 学習させるのはchainerでsin関数を学習させてみた際と同じsin関数です。 [training data] input: theta(0~2π, 1000分割) output: sin(theta) 実装 固定 or ランダム ミニバッチの学習データを固定とランダムに切り替えています。固定時(fixed)のコードはテスト時によく用いられる手法と同じです。 perm = np.random.permutation(N) sum_loss = 0 for i in range(0, N,