![](https://cdn-ak-scissors.b.st-hatena.com/image/square/56a81333da836901777cb79c26c96780d9991fa1/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Fadvent-calendar-ogp-background-7940cd1c8db80a7ec40711d90f43539e.jpg%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9MjAxOSVFNSVCOSVCNCVFMyU4MCU4MSVFNCVCRiVCQSVFMyU4MSVBRSVFOCVBQSVBRCVFMyU4MiU5MyVFMyU4MSVBMCVFOCVBQiU5NiVFNiU5NiU4NzUwJUU2JTlDJUFDJUU1JTg1JUE4JUU5JTgzJUE4JUU4JUE3JUEzJUU4JUFBJUFDJTI4JUU0JUJGJUJBJUU3JTlBJTg0JUUzJTgzJTk5JUUzJTgyJUI5JUUzJTgzJTg4MyVFNCVCQiU5OCVFMyU4MSU4RCUyOSZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZ0eHQtY29sb3I9JTIzM0EzQzNDJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTU2JnM9NTI5NjAxY2E0MGZmYzdhZTNmZTRjNzE4MWJkZTIxZDM%26mark-x%3D120%26mark-y%3D96%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9OTcyJnR4dD0lNDB3YXRhb2thJnR4dC1jb2xvcj0lMjMzQTNDM0MmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9MzYmdHh0LWFsaWduPWxlZnQlMkN0b3Amcz1lMzlhYWNjNGU5NDBjMGZiMzY5NjQxNGJiOTMxYzRmOQ%26blend-x%3D120%26blend-y%3D500%26blend-mode%3Dnormal%26s%3D4b151b71d8c6d7990ce3d6ca57230660)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント2件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
2019年、俺の読んだ論文50本全部解説(俺的ベスト3付き) - Qiita
第一位 Focal Loss for Dense Object Detection 物体検知のためのFocal Loss これは不均衡データに対処... 第一位 Focal Loss for Dense Object Detection 物体検知のためのFocal Loss これは不均衡データに対処するための損失関数Focal Lossを提案した論文なのですが, とにかくそのシンプルさにやられました. 画像のFLの式を見てください. たったこれだけです. ptは正解ラベルに対する予測値なのですが, ptが大きければ大きいほど損失値をしっかり抑えられるように設計された関数となっています. 正解ラベルに対して0.6と予測するサンプルを学習に重要視せず, 0.3とか0.1とか予測しちゃうサンプルにしっかりと重要視するのです. 自分も7月くらいまでは不均衡データに関する研究していたのですが, 自分が考えた多くのアイディアが結局Focal Lossの下位互換に帰結してしまうのです. しかもこの損失関数の汎用性は非常に高く, あらゆるタスクに入れること
2020/01/08 リンク