「機械学習と深層学習」の文献中に例題として取り上げられているプログラムを実装してみる。 文献ではC言語でプログラムを記述しており、これをPythonで自分なりに実装してみた。 今回は強化学習による迷路抜け知識の学習を取り上げる。 強化学習とは 一連の行動の最後に評価が与えられるような場合に用いる学習方法 例)将棋 教師あり学習の場合 コンピュータプレイヤーが一手ごとにその手の評価を先生から教わる方法 効率的な学習は可能だが、大量の教師データを用意する必要があり大変 一手だけ取り出してその手が正しいかどうかは、多くの場合判断することができない 強化学習の場合 一連の着手が終了した後に評価を得て、その評価に基づいて学習を進める ゲームの勝敗によって評価(勝ち、負け、引き分け) → 報酬 最終の評価から、一手一手の行動に関する知識を学習する Q学習 強化学習を実現する方法として、Q学習がある あ
![強化学習 - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/b91d667f40d9b0a43bf36cfb60e2f15be4f723aa/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUU1JUJDJUI3JUU1JThDJTk2JUU1JUFEJUE2JUU3JUJGJTkyJnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmcz0yMjI0YTE0ZTYzYTQ2NzgxMjRhNzI1NDE4NGNhMTg1Mg%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDB5b3VpY2hpcm8mdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTE3MDRhYWZmMjlkOTBiYzRiMjMzMTI0MDA1NTZjYTkw%26blend-x%3D142%26blend-y%3D436%26blend-mode%3Dnormal%26txt64%3DaW4gQ2xhc3Np5qCq5byP5Lya56S-%26txt-width%3D770%26txt-clip%3Dend%252Cellipsis%26txt-color%3D%2523212121%26txt-font%3DHiragino%2520Sans%2520W6%26txt-size%3D36%26txt-x%3D156%26txt-y%3D536%26s%3D35d97bf454bb81e998ed1953f56ffd16)