![](https://cdn-ak-scissors.b.st-hatena.com/image/square/8089178a3224615dd4fee076a2a1c00424630681/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZoPTMzNiZ0eHQ9JUU1JUE0JTlBJUUzJTgyJUFGJUUzJTgzJUE5JUUzJTgyJUI5JUU0JUJBJUE0JUU1JUI3JUFFJUUzJTgyJUE4JUUzJTgzJUIzJUUzJTgzJTg4JUUzJTgzJUFEJUUzJTgzJTk0JUUzJTgzJUJDJUU4JUFBJUE0JUU1JUI3JUFFJUU5JTk2JUEyJUU2JTk1JUIwJUUzJTgxJUE4JUUzJTgyJUJEJUUzJTgzJTk1JUUzJTgzJTg4JUUzJTgzJTlFJUUzJTgzJTgzJUUzJTgyJUFGJUUzJTgyJUI5JUU5JTk2JUEyJUU2JTk1JUIwJUVGJUJDJThDJUUzJTgxJTlEJUUzJTgxJUFFJUU3JUJFJThFJUUzJTgxJTk3JUUzJTgxJThEJUU1JUJFJUFFJUU1JTg4JTg2JnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmdHh0LWNsaXA9ZWxsaXBzaXMmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz0xNmIzNDk2YzZjMGQyNzcwM2YzNDkyZDZkZmM2Njc5Yw%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTYxNiZ0eHQ9JTQwa2xpcyZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTM2JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnM9MTI1NjFkN2UzNjZiY2FhZmM1ZWYyNDhmZjNjMDQzYzg%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3D30a421ec367c054e0712177534f5a559)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
多クラス交差エントロピー誤差関数とソフトマックス関数,その美しき微分 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
多クラス交差エントロピー誤差関数とソフトマックス関数,その美しき微分 - Qiita
はじめに 多クラス交差エントロピーはcategorical cross entropyとも呼ばれます. 実際に,深層学習フレ... はじめに 多クラス交差エントロピーはcategorical cross entropyとも呼ばれます. 実際に,深層学習フレームワークのkerasではcategorical_crossentropyという名前が使われています. 分類問題などに取り組む際,入力をソフトマックス関数に通して多クラス交差エントロピーをロス関数にすることは多いのではないでしょうか. 今回はこのソフトマックス関数+多クラス交差エントロピー誤差関数をソフトマックス関数の入力で微分します. 本稿はDeep Learning本の式10.18の行間埋めです. このため,時刻$t$という添字が入っています. 一般的に考えると,$t$はデータのインデックスに対応するはずです. 定義 $t$番目の学習データのラベルの1-of-K表現を$\mathbf{y^{(t)}}$とします. また,$t$番目のモデルの出力を$\mathbf{