タグ

kaggleに関するsyou6162のブックマーク (50)

  • Indoorコンペ振り返り - 思考の本棚

    はじめに 2021/01/28~05/18の期間、kaggleで開催されていたIndoor Location & Navigation (通称: Indoorコンペ)に参加しました。twitterで知り合った4人の方とチームを組み、1170チーム中16位をとることができたので振り返り記事を書こうと思います。なおこの記事では自分たちのソリューションではなく、どのような趣旨のコンペであったか、どういう取り組みが重要であったかに重きを置いて書こうと思います。 コンペ概要 屋内の位置推定コンペ。もう少し具体的にいうとユーザが持っているスマホ内蔵のセンサデータや屋内施設に設置されているwifi端末, bluetooth端末から受信するデータを用いて、ある時間におけるユーザの位置(x,y)と建物の階数(floor)を推定するというもの。 評価指標 今回予測するのは x,y, floorでありx,yはt

    Indoorコンペ振り返り - 思考の本棚
  • Kaggleで10年遊んだGrandMasterの振り返り | ho.lc

    2011年2月16日に Kaggle アカウントを取得して10年が経過した。長い間 Kaggle Ranking 世界 1 位を目指してきたが、この目標やモチベーションが大きく変化してきたと感じたため、一区切りつけるためにもこの10年+αを振り返る。今の目標は対象を問わずアルゴリズムで資産を最大化すること。エンジニアリングを駆使してデータからアルファを探し、システム化して運用する。実利的で定量評価できる最高に楽しいタスクです(記事では触れません)。 競技プログラミングからKaggleを始めるまで¶ Kaggle ができる前は ICPC や ICFP Programming Contest といった競技プログラミング系のコンテストに参加していた。ICPC ではアジア地区会津大会 2007、アジア地区東京大会 2008 に出場したが大敗して悔しくて仕方がなかった。コードゴルフも嗜む程度に遊んで

    Kaggleで10年遊んだGrandMasterの振り返り | ho.lc
  • 【Kaggleコンペふりかえり】Riiid! Answer Correctness Prediction | 株式会社AI Shift

    TOPTECH BLOG【Kaggleコンペふりかえり】Riiid! Answer Correctness Prediction こんにちは AIチームの戸田です 記事では日終了した、KaggleのコンペRiiid! Answer Correctness Predictionのふりかえりを行いたいと思います。 開催中のテーブルデータコンペにまともに取り組んだのが初めてなので、もし間違いなどございましたらご指摘いただければと思います。 コンペ概要 オーナーはRiiidLabsという韓国AIスタートアップで、Santa TOEICというTOEICの学習アプリを提供しています。今回扱うデータもこのアプリのものだと思われます。 コンペティションでは、ユーザーが出された問題に正解できるかを、ユーザーの行動履歴から予測します。気をつけたいのは、単純にある問題に対して回答できるかの予測ではなく、ユ

    【Kaggleコンペふりかえり】Riiid! Answer Correctness Prediction | 株式会社AI Shift
    syou6162
    syou6162 2021/01/08
    XGBoostの学習にはBQMLを使われたとのこと
  • Kaggle Riiid! コンペ参戦記 - ML_BearのKaggleな日常

    これは何? '20/10-'21/01にKaggleで開催されていた Riiid! Answer Correctness Predictionの参加記録です public 51st (0.801) → private 52nd (0.802) と順位は奮いませんでしたが、現実世界での予測タスクに即したコンペの設計(後述)や、1億行を超える豊富なデータを扱えるといった内容が非常に勉強になるコンペでした。 Discussionに投下した内容と被りますが、自身の備忘録(と解法の供養) のためにまとめておきます。 コンペ概要 ざっくり言うと TOEIC勉強アプリでのユーザーの正答確率を予測するコンペ Code Competition (コードを提出する形式のコンペ) trainデータは約1億、testデータは約250万。 ただし次項で述べるようにtestデータは見ることができない SANTA TO

    Kaggle Riiid! コンペ参戦記 - ML_BearのKaggleな日常
    syou6162
    syou6162 2021/01/08
    コンペ設計なるほど。未来の情報を使った特徴量で殴るやつ、実運用では使えないから微妙に感じること多かったんだけど、こういう設定のコンペが増えてくるといいな
  • kaggle Tweet Sentiment Extractionコンペで5位でした。 - tkm2261's blog

    kaggleツイートコンペPrivate 5位でした!GMまであとメダル2つ pic.twitter.com/psshCyctgp— Takami Sato (@tkm2261) 2020年6月17日 解法 (英語) www.kaggle.com 解法(日語) チーム組んだguchio3さんの記事 guchio3.hatenablog.com 解説動画 www.youtube.com

    kaggle Tweet Sentiment Extractionコンペで5位でした。 - tkm2261's blog
  • IEEE-CIS Fraud Detection | Kaggle

    Can you detect fraud from customer transactions?

    syou6162
    syou6162 2019/10/06
    IEEE-CIS Fraud Detectionの1st place solution
  • Kaggle体験記:IEEE CIS Fraud Detectionで19位/6381 - kurupicalのブログ

    はじめに こんにちは。くるぴー(@kurupical)です。 このたび、IEEE CIS Fraud Detectionコンペに、@pondelion1783さん、@HighGradeToppoさん、@TaTakoihirokazuさんと参加し、19位/6381の成績を残すことができました。 チームのみなさまはとても優秀で、コンペに参加した2ヶ月の間とても刺激的な時間を過ごすことができ、いい経験になりました。 チーム目標であった「金メダル」も達成できてとても嬉しいです。当にありがとうございました! このブログでは、これからKaggleなどのデータ分析コンペ参加しようとしている方向けに、どのようにコンペに取り組んだのかという経緯を残しておきたいと思います。 何かのお役に立てれば幸いです。 もしよろしければ、1年前に書いたkaggle体験記もあわせてご覧ください。 kurupical.hat

    Kaggle体験記:IEEE CIS Fraud Detectionで19位/6381 - kurupicalのブログ
  • Kaggle SIIM-ACR Pneumothorax Challenge - 1st place solution - Anuar Aimoldin

  • Kaggleの網膜コンペで銅メダルをとったので振り返る - 機械学習エンジニアの備忘録

    Kaggle で開催されたAPTOS 2019 Blindness Detection(網膜コンペ)にソロで参加したのでその振り返りです。 www.kaggle.com 結果は174th/2943 (TOP6%)で銅メダルでした。このコンペで2枚目の銅メダルを獲得し、Kaggle Expertになることができました。 コンペ概要 網膜の画像から糖尿病網膜症の重症度を予測します。 ラベルは0〜4の5段階で数字が大きいほど重症を表しています。 糖尿病網膜症については以下のスライドが分かりやすいです。 糖尿病網膜症 from 理 秋山 評価指標はquadratic weighted kappaです。 またkernel only コンペだったので学習は手元でOKですが推論はkernel上で完結させる必要があり、以下にkernelの制限時間内に推論できるかもこのコンペのポイントでした。 自分の手法

    Kaggleの網膜コンペで銅メダルをとったので振り返る - 機械学習エンジニアの備忘録
  • kaggle: Avito Demand Prediction Challenge まとめ - copypasteの日記

    はじめに コンペ概要 データの種類とタスク 評価方法 提出方法 勉強になる Kernel と Discussion [Avito EDA, FE, Time Series, DT Visualization ✓✓ | Kaggle Ideas for Image Features and Image Quality | Kaggle High Correlation Feature Image Classification Conf | Kaggle About image features & Image_top_1 features | Kaggle Aggregated features & LightGBM | Kaggle Simple CatBoost | Kaggle Fasttext starter (description only) | Kaggle text2imag

    kaggle: Avito Demand Prediction Challenge まとめ - copypasteの日記
  • Kaggle創薬コンペにおけるDeep Learningの適用 - Technical Hedgehog

    創薬においてコンピュータの活用はますます盛んになってきており、2012年にはKaggleでコンペも開催されました。このコンペは標的に対する分子の活性を推定するというタスクでした。 用いられた手法としては1位はDeep Learning、2位は非Deepな機械学習手法でありスコアにこそ大差はありませんでしたが、創薬においてDeep Learningの適用可能性を示したことで当時は話題になったそうです。だいぶ前のコンペなの解説記事はすでに多くありますが、コンペを通じて創薬の概要とDeep Learningがどのようなアプローチで適用されたのかを紹介してみます。 !Caution! できる限りの調査をしましたが、私は製薬や医療に詳しい人ではないので誤った解釈をしてしまっている可能性があります。「ここ間違っている」と言う点がありましたら指摘いただけると幸いです。 では、はじめにコンペのタスク背景と

    Kaggle創薬コンペにおけるDeep Learningの適用 - Technical Hedgehog
  • Learn Machine Learning Explainability Tutorials | Kaggle

    Extract human-understandable insights from any model.

  • kaggle: Porto Seguro's Safe Driver Prediction まとめ - copypasteの日記

    はじめに コンペ概要 データの種類とタスク 評価方法 提出方法 勉強になる Kernel と Discussion Data Preparation & Exploration | Kaggle Stratified KFold+XGBoost+EDA Tutorial(0.281) | Kaggle Resampling strategies for imbalanced datasets | Kaggle Python target encoding for categorical features | Kaggle Dimensionality reduction (PCA, tSNE) | Kaggle Tune and compare XGB, LightGBM, RF with Hyperopt | Kaggle 2-level Stacker | Kaggle Entity

    kaggle: Porto Seguro's Safe Driver Prediction まとめ - copypasteの日記
  • 第1回衛星データ解析コンテスト、上位3名の解析手法と第2回への期待 | 宙畑

    2018年12月18日に行われた第1回衛星データコンテスト「Tellus Satellite Challenge」の結果発表。記事ではコンテストの運営を行う株式会社SIGNATEの齊藤さんに解説いただいた上位3名の解析手法と講評をご紹介します。 衛星データ解析コンテスト「Tellus Satellite Challenge」の第1回上位入賞者の表彰が2017年12月18日に行われました。 ※当日の様子はこちら 記事では第1回「Tellus Satellite Challenge」結果について「Tellus Satellite Challenge」を運営する株式会社SIGNATEの代表取締役社長、齊藤秀さんにいただいた講評を紹介します。 記事執筆協力:齊藤 秀(SIGNATE)、向井田 明(RESTEC) (1)「Tellus Satellite Challenge」とは~概要と実施の背

    第1回衛星データ解析コンテスト、上位3名の解析手法と第2回への期待 | 宙畑
  • コピペで使える。Kaggleでの実験を効率化する小技まとめ - 天色グラフィティ

    この記事はKaggle Advent Calendar 2018の20日目の記事です。当初の予定ではPLAsTiCCコンペの振り返りをするはずだったのですが、時空の狭間に吸い込まれた結果0サブミットでフィニッシュしてしまいました。何ででしょうね。 そこで、代わりにKaggleで使える便利なスニペットまとめを書くことにします。 ちなみにもうひとネタあったのでいつか書きたいですが、修論があるのでいったん見送り…… LINEに通知を送る 処理にかかる時間を計測する Jupyter Notebookの場合 Pythonスクリプトの場合 LightGBMの学習結果をログに出す Google Spreadsheetに結果を記録する Google Spreadsheet側の設定 Pythonからアクセスする Notebook上でライブラリを毎回再読込する DataFrameのメモリを節約する まとめ L

    コピペで使える。Kaggleでの実験を効率化する小技まとめ - 天色グラフィティ
  • 【kaggle Advent Calendar 2018:4日目】validationの切り方いろいろ(sklearnの関数まとめ) - u++の備忘録

    記事は、kaggle Advent Calendar 2018の4日目の記事です。 qiita.com はじめに 重要な視点 scikit-learnに用意されている関数 KFold StratifiedKFold GroupKFold ShuffleSplit GroupShuffleSplit StratifiedShuffleSplit TimeSeriesSplit 回帰問題の場合 必ずしも「Trust CV」ではない Adversarial Validation おわりに はじめに 記事では、3日目の記事で重要性を説明したCross Validationについて、「良いCV」となるvalidationのデータセットはどのようなものか考えてみたいと思います。 upura.hatenablog.com この話題については、scikit-learnのドキュメンテーションが非常に充実

    【kaggle Advent Calendar 2018:4日目】validationの切り方いろいろ(sklearnの関数まとめ) - u++の備忘録
    syou6162
    syou6162 2018/12/06
    時系列データ向けのsplitのTimeSeriesSplitってのが最近入ったのか。知らなかったので参考になりました
  • 社内で機械学習ハッカソン(Kaggle編)を開催しました - Hatena Developer Blog

    こんにちは、ウェブアプリケーションエンジニアのid:syou6162です。今年の夏に社内機械学習ハッカソンを開催したので、その様子を紹介したいと思います。今回のハッカソンでは、機械学習のコンペサイトとして有名なKaggleをテーマに取り組みました。 なぜKaggleをやるのか? 事前準備 取り組んだコンペ id:syou6162 (TalkingData AdTracking Fraud Detection Challenge) id:alpicola (Toxic Comment Classification Challenge) id:takuya-a (Titanic: Machine Learning from Disaster) id:tanishiking24 (Spooky Author Identification) id:miki_bene (Titanic: Machi

    社内で機械学習ハッカソン(Kaggle編)を開催しました - Hatena Developer Blog
  • はてな社内でKaggleハッカソンを行ないました(TakingDataリベンジマッチ編) - yasuhisa's blog

    先週末、はてな社内でKaggleハッカソンを行ないました。丸一日、各自好きなKaggleのコンペに取り組んで、得られた知見を共有するという会です。 自分は以前TalkingDataというコンペに参加していたのですが、データサイズが結構大きく、一月くらいやってみたももの試行錯誤に四苦八苦してしまい、途中で離脱していました...。このハッカソンでは、そういったデータセットでも何とかできるようになろう!ということを目標にして参加しました。もちろん1日だけではさすがに時間が足りないので、ハッカソン前の10日くらいは定時後にちまちま作業をやっていました。 以下はハッカソン終了後に使った発表資料です。Kaggle上位の人にとっては当たり前のことしか書いてないかもしれませんが、社内でこういった知見をじわじわと貯めていくことが大事だと思っています。なお、ハッカソン終了後にAWSのでかいインスタンスを借りて

    はてな社内でKaggleハッカソンを行ないました(TakingDataリベンジマッチ編) - yasuhisa's blog
    syou6162
    syou6162 2018/07/24
    kaggleの知見、ハッカソンとかを通じて社内でも溜めていってます
  • Kaggleで使えるFeather形式を利用した特徴量管理法 - 天色グラフィティ

    みなさま、Kaggle楽しんでいますでしょうか。 僕は現在Home Credit Default RiskとSantander Value Prediction Challengeに参加しています。 前回のKaggle記事ではpandasのテクニックについてまとめました。 多くのアクセスをいただき、人生初のホッテントリ入りまで経験してたいそう嬉しかったです。ありがとうございました! amalog.hateblo.jp さて。みなさんはKaggleをやっているとき、どのようにして特徴量を管理していますか? Titanicくらいならその都度計算すれば十分ですが、 ある程度データのサイズが大きくなり、さまざまな特徴量を取捨選択するようになると特徴量のシリアライズ(保存)が欠かせません。 そこで、今回は僕が行っている特徴量管理方法を紹介したいと思います。 僕の方法はTalkingdata Adtr

    Kaggleで使えるFeather形式を利用した特徴量管理法 - 天色グラフィティ
  • 社内でKaggleの布教活動をやっている話 - yasuhisa's blog

    最近、社内勉強会で機械学習についてエンジニアに説明する機会があり、その際にKaggleについても説明しました。一方で うーん、「Kaggler はパラメータチューニングやアンサンブル等の自明でインクリメンタルな改善『しか』できない」というような誤解はどうやって解いていけばいいんだろう。— im132nd (@im132nd) 2018年4月4日 という話もあり、(特にデータサイエンティスト以外の職種の人が)Kaggleをやる意義/メリットについてまとめてみました。ガッと勢いで書いたので、項目に結構被りがあります。なお、書いている人はKaggleほぼ初心者であまり説得力がないです。Kaggle Masterの人がもっといいエントリを書いてくれるのを期待しています、議論の叩き台エントリです!! Kaggleをやる意義/メリット 様々なデータセットを触ることができる kernelでデータ分析

    社内でKaggleの布教活動をやっている話 - yasuhisa's blog
    syou6162
    syou6162 2018/04/05
    kaggleをやると色々おいしい点があるよって話を書きました!