タグ

kaggleに関するmsyktのブックマーク (7)

  • LeaderBoardProbingという技術の紹介 - Qiita

    最近終了したKaggleのコンペ、instant-gratification(通称kerneler-kunコンペ)やLANL Earthquake Prediction(地震コンペ)それぞれのディスカッションで取り上げられたLeaderBoardProbingについて調べたことをまとめたいと思います。 これ以降LeaderBoardという名称はLBと略称します。 LB Probingとは Kaggleのようなコンペティション形式の場合、スコアの計算に使われる評価用のデータは2つに分けられており、片方がPublic LBの全員に見える形で表示され、もう片方がPrivate LBコンペ終了時に公開され最終的な順位決定に利用されます。 Public LBに使われる評価用のデータの中身を表示されるPublic Scoreを用いて推定する技術がLB Probingと言います。 具体的にはどうやるのか

    LeaderBoardProbingという技術の紹介 - Qiita
    msykt
    msykt 2019/12/08
    “そのPrivate LBに使われる評価用のデータの中身をPublic LBに表示されるPublic Scoreを用いて推定する技術がLB Probingと言います。”
  • 【書評】『Kaggleで勝つデータ分析の技術』(技術評論社) - u++の備忘録

    限定の先行販売*1で紙版を入手した『Kaggleで勝つデータ分析技術』(技術評論社)を読みました。なお電子版をご恵贈いただく予定です。 gihyo.jp 10月7日の発売を待たずして Amazon*2のベストセラー1位になるなど、注目を集めています。 既に著者の一人である threecourse さんは、執筆者視点で見どころを紹介しています*3。 記事では一人の読者、そして Kaggler の視点で書評を記します。なお私は既に1年以上 Kaggle に取り組んでおり、一定程度の知識を有している視点からの書評になります*4。 書の魅力 1. データ分析コンペのテーブルデータコンペに注力して書かれた「教科書」である 2. 技法のみならず筆者および関係者の実体験に基づいた集合知も言語化されている 3. コードが公開されている どんな人に書はお勧めか Kaggleに取り組んだ経験があり、更

    【書評】『Kaggleで勝つデータ分析の技術』(技術評論社) - u++の備忘録
    msykt
    msykt 2019/10/03
  • Adversarial Validationのメモ - u++の備忘録

    はじめに 下記の英語記事から要旨を抜粋して、日語でまとめた。 fastml.com fastml.com Adversarial Validationとは いつ使う? TrainデータとTestデータの分布が異なる場合 → Trainデータから適切にValidationデータを作成するのが難しい → Kaggleの場合、LocalCVとLBのスコアが一致しないなどの問題が生じる 解決策 1. 「TrainデータかTestデータかを判定する分類器」を作る 2. Trainデータを、Testデータに似ている順にソートする 3. 似ている順に、Trainデータからデータを抽出し、Validationデータとする 応用例 "stochastic adversarial blending" KaggleのHome Credit Default Riskコンペの2nd place solutionに

    Adversarial Validationのメモ - u++の備忘録
  • Kaggle における K-Fold CV まとめ - higepon blog

    背景 参考 K-Fold CV と Train Test Split 違い K-Fold CV 例 K-Fold 亜種 CV FAQ Local CV の値が安定しない Local CV と public LB で傾向が違う 考えられる理由1 考えられる理由2 Local CV と public LB どちらを信じるか 背景 先日 submission の締切が過ぎて終了フェーズの Quora Insincere Questions Classification | Kaggle。 local CV と pubic LB の相関についてたくさんの議論があった。また local CV vs train test split の話もあった。別のコンペでもよくある議論だと思うのでここでまとめて理解を深める。 参考 Cross-Validation | Kaggle Cross Validatio

    Kaggle における K-Fold CV まとめ - higepon blog
  • How to Select Your Final Models in a Kaggle Competition

    Did your rank just drop sharp in the private leaderboard in a Kaggle competition? I’ve been through that, too. We all learn about overfitting when we started machine learning, but Kaggle makes you really feel the pain of overfitting. Should I have been more careful in the Higgs Boson Machine Learning competition, I would have selected a solution that would gave me a rank 4 than rank 22. I vow to c

    How to Select Your Final Models in a Kaggle Competition
  • Two Sigma: Using News to Predict Stock Movements

  • Kaggle創薬コンペにおけるDeep Learningの適用 - Technical Hedgehog

    創薬においてコンピュータの活用はますます盛んになってきており、2012年にはKaggleでコンペも開催されました。このコンペは標的に対する分子の活性を推定するというタスクでした。 用いられた手法としては1位はDeep Learning、2位は非Deepな機械学習手法でありスコアにこそ大差はありませんでしたが、創薬においてDeep Learningの適用可能性を示したことで当時は話題になったそうです。だいぶ前のコンペなの解説記事はすでに多くありますが、コンペを通じて創薬の概要とDeep Learningがどのようなアプローチで適用されたのかを紹介してみます。 !Caution! できる限りの調査をしましたが、私は製薬や医療に詳しい人ではないので誤った解釈をしてしまっている可能性があります。「ここ間違っている」と言う点がありましたら指摘いただけると幸いです。 では、はじめにコンペのタスク背景と

    Kaggle創薬コンペにおけるDeep Learningの適用 - Technical Hedgehog
  • 1