![](https://cdn-ak-scissors.b.st-hatena.com/image/square/c09dfe323ff51a5bc2c8849e49b6e2a263b13fcb/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9Y291cnNlcmElRTMlODElQUVNYWNoaW5lJTIwTGVhcm5pbmclMjglRTYlQTklOUYlRTYlQTIlQjAlRTUlQUQlQTYlRTclQkYlOTIlMjklRTUlQUQlQTYlRTMlODIlOTMlRTMlODElQTAlRTMlODElOTMlRTMlODElQTglRTMlODMlQTElRTMlODMlQTIlMjgyJTI5JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmcz05ZjZkM2I4ZGUzNjkwMWQzOGQwM2E4MDJlNjg3ODQ4Mw%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBtMGEmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTA4ZGNhNDVkYzA2NTI2ZmM2NWVkYjExMzUxOWZiOWY1%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3Dca2f4e4735b6e7741c45a31a58e2a506)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
courseraのMachine Learning(機械学習)学んだことメモ(2) - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
courseraのMachine Learning(機械学習)学んだことメモ(2) - Qiita
はじめに courseraのMachine Learning(機械学習)学んだことメモ(1)の続きです。 前回は線形回帰モデルと... はじめに courseraのMachine Learning(機械学習)学んだことメモ(1)の続きです。 前回は線形回帰モデルとロジスティック回帰モデルまででした。 今回は自分が元々勉強したかったNN(ニューラルネットワーク)です。 学習中いきなり文字認識(OCR)の実装に触ることになるのでテンションが上ります。 手動で実装しようとすると全く想像がつかない文字認識ですが、NNを使い、機械学習を行うことで、簡単に実装できてしまい感動します。 正直一つ一つの数式は丁寧に説明してくれるのでなんとか理解できるのですが(一部の偏微分は除く) 最終的に出来上がる動作はなんで動くんだーっと思ってしまいます。 脳って不思議です。 ニューラルネットワーク パラメータの数が膨大に増えたりした場合の分類の問題をロジスティック回帰で解くには限界が来ます。 そのためにこのNNを使います。 $a^{(j)}_i$ a