
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
[メモ] ディープラーニングでの汎化性能検証時のtest_splitと交差検証法の違い - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
[メモ] ディープラーニングでの汎化性能検証時のtest_splitと交差検証法の違い - Qiita
Python / ディープラーニング初心者です。 ニューラルネットワーク実装時に調べた汎化性能の検証法につ... Python / ディープラーニング初心者です。 ニューラルネットワーク実装時に調べた汎化性能の検証法について、 以下の通りメモを残します。 疑問に感じたこと k分割交差検証法( k-fold cross-validation / kCV)という汎化性能の検証方法がある(参考1) 学習用のデータをk個に分割し、k-1個を学習用、1個を性能評価用に用いるという学習をk回繰り返す方法 sklearn.modelselection.traintest_split(TTS)を用いて、手元のデータを学習用データとテスト用データに分けて汎化性能を検証することがあるのをもともと知っていた a.基本的にTTSを複数回繰り返したものがkCVという認識で良いか? b.TTSよりもkCVのほうがモデルの汎化性を正確に評価できるという認識でよいか? 回答 a.そう思われる。加えて、kCV時にはもれなくすべてのk個