何かを「正しい」と判断するとき、読者の皆様は何を根拠としますか。例えば、経験を元にする場合、一度だけの経験では偶然の可能性も考えられます。これが複数の経験からの判断であれば、少しは信憑性が増すと思います。一度の結果では信憑性が薄くとも、多くの結果を得られればある程度の精度で判断できる材料となります。 機械学習も同様です。様々な特徴量を扱う機械学習では、予測モデル(以下:モデル)の評価が本当に「正しい」のかを判断することは難しい問題です。特に、過学習などの問題は機械学習の技術が発展している近年でも残り続けています。 本稿では、機械学習を扱う上で重要な交差検証(クロスバリデーション )について解説します。前半ではデータ分割の基本と、交差検証の定義を解説をします。後半では実際のデータセットを用いて交差検証の実装を行います。交差検証は様々な場面で紹介されていますが、実際に学ぶと詰まるポイントが多い
![交差検証(Python実装)を徹底解説!図解・サンプル実装コードあり](https://cdn-ak-scissors.b.st-hatena.com/image/square/c1260dcfc9932fd5fc003ac863f2c11b02a8cc40/height=288;version=1;width=512/https%3A%2F%2Fwww.codexa.net%2Fwp-content%2Fuploads%2F2022%2F09%2Fcross_validation_codexa.jpg)