並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 6 件 / 6件

新着順 人気順

cross_validationの検索結果1 - 6 件 / 6件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

cross_validationに関するエントリは6件あります。 機械学習HotEntry論文 などが関連タグです。 人気エントリには 『K-fold Cross Validationの理論的優位性について - Ridge-institute R&D Blog』などがあります。
  • K-fold Cross Validationの理論的優位性について - Ridge-institute R&D Blog

    こんにちは,株式会社Ridge-iリサーチチームの@machinery81です. 今回はK-fold Cross Validationの理論的側面を紹介したいと思います. なお本記事は@zawatsky_rによってレビューされています. 本記事の内容は以下のスライドに基づいています: TL;DR はじめに Hold-Out ValidationとCross Validation K-fold Cross Validationの理論的優位性 準備とゴール K-fold Cross ValidationはHold-Out Validationと少なくとも同等 K-fold Cross ValidationはHold-Out Validationに対して厳密に優越 数値実験 さいごに 参考文献 TL;DR K-fold Cross Validationは単一のHold-Outに対して汎化バウンド

      K-fold Cross Validationの理論的優位性について - Ridge-institute R&D Blog
    • Counterfactual Cross-Validation: Stable Model Selection Procedure for Causal Inference Models(公開用)

      勉強会リンク:https://cfml.connpass.com/event/179600/ 論文リンク:https://arxiv.org/abs/1909.05299 論文概要: 機械学習的な汎化誤差最小化の定式化に基づく因果効果予測手法が乱立傾向にあります。またそれらの手法は、多くのハイパーパラメータを有しています。そうした背景から、各環境について最適な予測手法とハイパーパラメータを選択するという手順の重要性が増している一方で、その手順に関する研究はあまり進んでいません。本研究では、観測可能なデータのみを用いてデータドリブンに、因果効果予測手法のモデル選択やハイパーパラメータチューニングを行うための方法を提案します。また、ベンチマークデータセットを用いて、既存のヒューリスティックな評価指標よりも提案手法がより良い性能を持つモデルを候補集合の中から探し当てられることを実証します。

        Counterfactual Cross-Validation: Stable Model Selection Procedure for Causal Inference Models(公開用)
      • 比較的少なめのデータで機械学習する時は交差検証 (Cross Validation) をするのです - Qiita

        口上 『ゼロから作る Deep Learning ~ Python で学ぶディープラーニングの理論と実装』という本を買って深層学習の勉強をマターリしているのですが、 「そういえば情報検索や自然言語処理の実験でもよくやる交差検証 Cross Validation って意外に気にしてる人いないかも?」 と思ったので、自分でまとめることにしました。 もちろん、今までにも優秀な人達が記事を書いてくださっていますし(しかもググるとイパーイ出てくる)「もう知っているよ!」「やってるし!」っていう方は全く読む必要がないので、華麗にスルーして 1 回でも多く自分の学習のための Epoch を回した方がいいと思うのですが、もしお時間があって「よし粗探しでもしてやるか!」と思った奇特な方がいらっしゃったならばお読みいただいて、妙なところがあれば是非ご指摘・ご指導ください。 m(__)m 誰のための記事か? 「

          比較的少なめのデータで機械学習する時は交差検証 (Cross Validation) をするのです - Qiita
        • scikit-learnのcross_val_scoreを使って交差検証(Cross Validation)をする方法 - ランダムの森

          機械学習モデルを作る時、与えられたデータを全て用いてモデルの学習・精度向上を行うと、そのデータに対してのみ精度の良いモデル(理想のモデルに近づけていない。)が出来上がってしまい、未知のデータに対して適用できなくなってしまいます。 そのため通常、データをあらかじめ学習用と検証用に分けておき、学習用データでモデル作成→検証用データでモデルの精度を確かめるという手順でモデリングを進めていきます。 さて、上記のように学習データ内で精度の良いモデルを作るのですが、こちらも学習データに特化したモデルを作ってしまうと、いつまでたっても精度の良いモデルができません。(特に学習データが少ない場合。) この問題を解決する手法が交差検証(Cross Validation)です。今回は交差検証の中でも、K-分割交差検証(k-Fold cross validation)について説明します。 K-分割交差検証では学習

            scikit-learnのcross_val_scoreを使って交差検証(Cross Validation)をする方法 - ランダムの森
          • 交差検証(cross validation/クロスバリデーション)の種類を整理してみた

            機械学習を学んでいると、交差検証(cross validation/クロスバリデーション)というワードをよく見かけます。このご時世、便利なツールであるライブラリがたくさん公開されていて、交差検証もコード数行で利用できてしまう超便利な状況ですから、ざっくりとした理解で済ませている方は意外に多いのかもしれません。 実際僕自身が、 的な感じで理解していたのですが、機械学習の勉強を進めれば進めるほどに、そうした曖昧な理解ではとうとう困る場面がチラホラ出てきました。交差検証(cross validation/クロスバリデーション)には様々な種類があるので「とりあえず単純な交差検証でOK!」というやり方では痛い目を見る訳です。 そこで今回は交差検証(cross validation/クロスバリデーション)について整理することで学びを深めることにしました。(すでに現場でバリバリ活躍している人も、今現在、

              交差検証(cross validation/クロスバリデーション)の種類を整理してみた
            • Guide to Cross-validation in Machine Learning

              Cross-validation is a technique used in machine learning to assess how well a model will generalize to an independent data set. What is Cross-Validation? Imagine you’re a teacher preparing a test for your students. You want to ensure that the test accurately reflects how well your students understand the material and not just how well they memorized specific questions you used during their revisio

                Guide to Cross-validation in Machine Learning
              1

              新着記事