「赤りんご」と「青りんご」を見分けるだけの簡単なものですが、はじめて自分の用意した画像で深層学習をしてみました。 こんな感じ Deep Learning Apple Recognition - YouTube 「赤りんご」と「青りんご」を見分けます。 まずは「青りんご」から、確率91.4%と推測しました。 続いて「赤りんご」、確率91.1%と推測しています。 今回は推測結果が90%以上で「赤りんご」と「青りんご」を判定しています。りんごがない時に(例えば私の丸顔を写した場合)80%の推測がされた際は、判定結果が出ない様にしています。 環境 前回記事と同様です。 学習の流れ Web上から画像をダウンロードする ダウンロードした画像をNumPy配列にし、訓練データとテストデータに分ける 畳み込みニューラルネットワークで学習する OpenCVで撮影した画像をNumPy配列にし推測データとして使用
![Raspberry Pi 深層学習で「赤りんご」と「青りんご」を見分ける(Keras・Open CV) - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/11a88bb08d6bbf7cb4271003d975b508770caa8a/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9UmFzcGJlcnJ5JTIwUGklMjAlRTYlQjclQjElRTUlQjElQTQlRTUlQUQlQTYlRTclQkYlOTIlRTMlODElQTclRTMlODAlOEMlRTglQjUlQTQlRTMlODIlOEElRTMlODIlOTMlRTMlODElOTQlRTMlODAlOEQlRTMlODElQTglRTMlODAlOEMlRTklOUQlOTIlRTMlODIlOEElRTMlODIlOTMlRTMlODElOTQlRTMlODAlOEQlRTMlODIlOTIlRTglQTYlOEIlRTUlODglODYlRTMlODElOTElRTMlODIlOEIlRUYlQkMlODhLZXJhcyVFMyU4MyVCQk9wZW4lMjBDViVFRiVCQyU4OSZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTU2JnM9YzhjYWM4NWNkOThiOTFiZTZiNDMxOWQxNjdkOWIzYTU%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBQb25EYWQmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTljMzE2NDcyOTc0NDc4YzhkZGZiNWQzZjRiYjM1NWRk%26blend-x%3D142%26blend-y%3D486%26blend-mode%3Dnormal%26s%3D08eecbc6adf8ebd5c320412793faf7d3)