※コメントで説明の一部に誤りを指摘頂いたので記事を修正しました(2020/3/30) 教師あり機械学習では必須の損失関数。 教師あり機械学習の場合、学習するというのは損失関数の値を小さくする事とほぼ同義になります。 損失関数について詳しく知りたい方は、最適化から見たディープラーニングの考え方という論文をご覧下さい。 損失関数に限らず、損失関数の最適化手法や活性化関数などについてもわかりやすく説明されています。 そして、損失関数には幾つもの種類がありますが、交差エントロピー誤差は有名な損失関数の一つです。 本記事では、交差エントロピー誤差をわかりやすく説明してみます。 なお、英語では交差エントロピー誤差のことをCross-entropy Lossと言います。Cross-entropy Errorと表記している記事もありますが、英語の文献ではCross-entropy Lossと呼んでいる記事
![交差エントロピー誤差をわかりやすく説明してみる - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/c2ad72b10c30ec12149f039474939eb3581044c6/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUU0JUJBJUE0JUU1JUI3JUFFJUUzJTgyJUE4JUUzJTgzJUIzJUUzJTgzJTg4JUUzJTgzJUFEJUUzJTgzJTk0JUUzJTgzJUJDJUU4JUFBJUE0JUU1JUI3JUFFJUUzJTgyJTkyJUUzJTgyJThGJUUzJTgxJThCJUUzJTgyJThBJUUzJTgyJTg0JUUzJTgxJTk5JUUzJTgxJThGJUU4JUFBJUFDJUU2JTk4JThFJUUzJTgxJTk3JUUzJTgxJUE2JUUzJTgxJUJGJUUzJTgyJThCJnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmcz0wNDBkNzI4MWI2NGM5ZWEyNjYzNGFkYWRhZDVjZjMyMA%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBrZW50YTE5ODQmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTkxMjM3MmMyNDQzYWY4YThkZDkxYjc0YzliNDQyNWY3%26blend-x%3D142%26blend-y%3D436%26blend-mode%3Dnormal%26txt64%3DaW4g5qCq5byP5Lya56S-44Kw44Ot44O844OT44K5%26txt-width%3D770%26txt-clip%3Dend%252Cellipsis%26txt-color%3D%2523212121%26txt-font%3DHiragino%2520Sans%2520W6%26txt-size%3D36%26txt-x%3D156%26txt-y%3D536%26s%3D538d5c60f71ad04b5bd07aaa7085de12)