並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 391件

新着順 人気順

kaggleの検索結果201 - 240 件 / 391件

  • How to encode categorical features for GBDT

    内製化を目指す事業会社が、システム開発会社と共に進める「開発生産性改善」の取り組み事例 #devsumi

      How to encode categorical features for GBDT
    • 「Kaggleで勝つデータ分析の技術」について(内容編) - threecourse’s blog

      10/9に技術評論社から、「Kaggleで勝つデータ分析の技術」が出版されます(amazon)。 (ブログ主=著者の一人の門脇です) gihyo.jp 多くの予約を頂いているようで大変有難いです。もし評価がひどくて多方面から矢が飛んで来たらどうしようと怖くなることもありますが、何だかんだで自信を持って出せる本に仕上がったと思っています。以下で、見どころや意図を紹介します。 目指したところ 私が目指したのは、テーブルデータについて「Kaggler(=Kaggleの参加者)の暗黙知を明らかにする」ことです。一度整理したかったですし、なかなか綺麗にまとまっている資料はないようです。 CourseraのHow to Win a Data Science Competitionが比較的近いテーマですが、英語なのはともかく、動画での講義なので情報を整理するコストがなかなか高いですし、またこの講座とも違

        「Kaggleで勝つデータ分析の技術」について(内容編) - threecourse’s blog
      • Kaggle Grandmaster になるまでを振り返る - NmaViv’s diary

        このたび Kaggle Grandmaster になることができたので振り返ります。 ついに Grandmaster になりました!🙌 今までチーム組んでくださった方たちのおかげなので,これからも精進します🙏 pic.twitter.com/JP4STTf7pr — Y.Nakama (@NmaViv) 2020年10月7日 https://www.kaggle.com/yasufuminakama はじめに この記事では、自分が kaggle を始めてから Grandmaster になるまでの道のりを振り返りたいと思います。kaggle 始めたての時は機械学習初心者みたいなものだったので、どのように成長していったかをコンペごとに振り返っていけたらと思います。技術的なところまで掘り下げた内容ではないのでご注意ください。 はじめに Kaggle を始めたきっかけ 初期は何で勉強したのか

          Kaggle Grandmaster になるまでを振り返る - NmaViv’s diary
        • プログラミング初心者が1年でKaggle・Signateでメダルを取った話 - Qiita

          0.この記事を読む方へ 初めまして。私の名前は「Kag」です。私はPythonの勉強を開始して一年後にはKaggleとSignateでメダルを取ることが出来ました。この記事は、KaggleやSignateに興味がある人、始めたものの何をすればよいのかわかない人、Pythonの勉強を新たに挑戦したい人を意識した記事です。少しでも多くの人がKaggleやSignateに興味を持って、コンテストをさらに盛り上げることにつながれば本望です。 目次 1.プログラミングとの出会い 2.プログラミングへの挑戦のきっかけ 3.初期の挑戦と乗り越えた困難 4.コンテスト初参戦からメダル獲得まで 5.一年間の学び 6.初学者へのアドバイス 7.結び 1.プログラミングとの出会い 初めに私のスペックを紹介します。プログラミング初心者が~~系の記事はたくさんありますよね。初心者といいながらイメージしていた初心者と

            プログラミング初心者が1年でKaggle・Signateでメダルを取った話 - Qiita
          • コンペ素人でもチームを組めば半年でKaggleとSIGNATEでメダルが取れた話 - Qiita

            はじめに 10月からprimeNumberにジョインしましたwakama1994です。 今回は私が転職活動と並行して行ったデータコンペの参加について書きます。コンペ参加は敷居が高いと感じてましたが、チームを組むことで敷居が下がり、メンバーからも学べることも多く、今後も継続してコンペに出たいと思えるようになりました。 データコンペをこれから始めたい方に向けて「チームで参加したら参加ハードルも下がって、楽しい!」ことをお伝えできればと思っています。 コンペ出る前の経験値 前職(新卒入社)でも3年ほどデータサイエンスを業務で使用 プログラム上の結果を読み解くのはある程度理解できていたが、その根本のモデリングや処理のプロセスについては理解不足 ゆくゆくはモデリングについても理解すべき思ってはいたものの、行動には移せてない状況 なぜコンペに行き着いたのか? 転職活動をやっていく中で、中途で採用される

              コンペ素人でもチームを組めば半年でKaggleとSIGNATEでメダルが取れた話 - Qiita
            • 【Python/機械学習/Kaggle】ローカルで編集・パソコン間で共有可能な環境をColabとGoogleドライブで簡単構築 - Qiita

              【Python/機械学習/Kaggle】ローカルで編集・パソコン間で共有可能な環境をColabとGoogleドライブで簡単構築Python環境構築機械学習Kagglecolaboratory はじめに 「Colaboratory を使えばGPU付きの環境を無料で使えるけど、git使おうとしたりファイル編集したりする時面倒...」 と思っていた時期がありました。 パソコン版 Google ドライブ を使うと、ローカルにドライブをマウントできるので、ローカルで編集してGPUが必要なときはColabで実行というのが簡単にできます。ターミナルからコマンドで操作できるので、クラウドのストレージとしても使いやすいです。 また、最近 Colab Pro が日本にやってきました。月額1000円で Kaggle などでも十分戦える環境が手に入ります。もともと無料枠でもかなり使えましたが、課金すると優先的に良

                【Python/機械学習/Kaggle】ローカルで編集・パソコン間で共有可能な環境をColabとGoogleドライブで簡単構築 - Qiita
              • kaggle LLM コンペ 上位解法を自分なりにまとめてみた話|Japan Digital Design, Inc.

                お久しぶりです、三菱UFJフィナンシャル・グループ(以下MUFG)の戦略子会社であるJapan Digital Design(以下JDD)でMUFG AI Studio(以下M-AIS)に所属する蕭喬仁です。 厨二心をくすぐる名前でadvent calendarに登録していますが、もう直ぐ三十路ということでアカウント名の替え時が最近の悩みです。 さて、今年はOpenAIからリリースされたChatGPTを皮切りに生成AIが世間のトレンドとなっていますが、弊社でも「文章生成AIによる過去相場要約機能」の提供のような生成AIを用いたプロダクト開発やR&Dを進めています。中でも、検索を用いて外部知識を生成AIに埋め込むことでタスクの性能を高めるRetrieval-augmented Generation (以下RAG)は、大量の業務資料やマニュアルを保持するMUFGのような大企業にとっては非常に相

                  kaggle LLM コンペ 上位解法を自分なりにまとめてみた話|Japan Digital Design, Inc.
                • Kaggle Grandmaster 分析レポート 2024年 -update版- | ResearchPort [リサーチポート]

                  本記事内容および公開データに対して多くのご意見をいただきまして誠にありがとうございました。 プロフィール更新のご連絡をいただきましたため、一部情報を更新しております。その結果、図4の企業ランキングにてLINEヤフー社が4位群に変更となりましたことご報告いたします。 ご意見・ご指摘いただきました方々、この場を借りて御礼申し上げます。 2024.01.26更新 本記事3行要約: ● Competition Grandmasterの総数で、日本が世界TOPに躍進!! ● 7ヶ月間で新たに15名の日本人Competition Grandmasterが誕生!! ● 企業別では、新たに4名のGMが生まれたPreferred Networks社が最多在籍!! *更新情報* 「Kaggle Master 分析レポート 2024版」を公開いたしました。 Grandmaster 分析レポートと合わせてご覧くだ

                    Kaggle Grandmaster 分析レポート 2024年 -update版- | ResearchPort [リサーチポート]
                  • 画像系初心者による kaggle 細胞コンペ 2019 まとめ - guchiBLO はてな

                    本記事の概要 Recursion Cellular Image Classification (以降細胞コンペや本コンペと略します) という kaggle の画像コンペに参加したのでまとめます。筆者は一年ほど kaggle をやっていますがまともに画像コンペに参加したのは初なので、幾つかの気付きも書き残しておこうと思います。 本記事の概要 コンペ概要 画像特性 実験構造 control 画像 リーク metric learning 上位チームの解法 1st place 2nd place 3rd place 4th place 5th place 7th place 9th place 16th place 細胞コンペに参加してみて やったこと 躓き・気付き 次コンペではやりたいこと まとめ コンペ概要 細胞コンペではある実験に使用された細胞画像を 1,108 クラスに分類するというタスク

                      画像系初心者による kaggle 細胞コンペ 2019 まとめ - guchiBLO はてな
                    • Kedro を用いた分析コンペ向けのデータパイプライン構築

                      Kaggle Advent Calendar 2019 の9日目の記事です。 一応自己紹介を書いておくと、 Kaggle は mhiro2 という名前でここ1年くらい趣味としてやっています。 本業では、 MLOps の一環として、 GKE や BigQuery, Cloud Composer, MLflow などを活用した自社向けの機械学習基盤開発をやっています。 ML やデータ分析の理論や技術そのものよりは、 ML のサイクルを円滑に回すためのシステムデザインやアーキテクチャなどの仕組み化に関心があります。 はじめにKaggle をはじめとした分析コンペに取り組んでいる方の中には、自前のパイプラインを構築されている方も多くいらっしゃるかと思います。そもそもパイプラインとは何ぞや、という話ですが、EDA や特徴量のエンコードなどの前処理はもちろん、複数のモデルやパラメータでの学習やアンサン

                        Kedro を用いた分析コンペ向けのデータパイプライン構築
                      • Kaggle Wheatコンペからの学び 〜 物体検出コンペで当たり前に行われている(っぽい)こと - オットセイの経営日誌

                        先頃、KaggleのGlobal Wheat Detectionコンペに参加しました。 大学の研究・仕事を通じてこれまで画像データに触れることがあまりなかったのと、エールビールが大好きな自分としては小麦を眺めているだけで幸せな気分になれたことから、参加することにしました。 結果は、コンペ終了直後時点で、2270の参加チーム中、138位でした。 (注:本コンペは、ライセンス問題に伴いコンペ終了直後の順位がどの程度確定的なものか不明瞭なので、「コンペ終了直後時点で」と書きます。別記事でライセンス問題については触れるかもしれません。) ただその実態は、人様のNotebookをコピー&ペースト&継ぎ接ぎ、Discussionのアイデアを目を皿のようにして読み込んでパクる、の連発だったので、良い意味で自分の実力と言えるかは甚だ疑問です。 しかし、初めて物体検出コンペに参加し、私見ですが何が当たり前に

                          Kaggle Wheatコンペからの学び 〜 物体検出コンペで当たり前に行われている(っぽい)こと - オットセイの経営日誌
                        • KagglerへのNumeraiのススメ

                          この記事について 世界最大のデータサイエンスコンペプラットフォームであるKaggleの、なんらかのコンペに参加したことのある方で、 Kaggleもっと参加したいけど、手頃なテーブルコンペが全然ない... 魑魅魍魎が跋扈していて、上位(ゴールドメダル以上)、ましてや賞金を取るなんて夢のまた夢... Numerai?なんか聞いたことあるけど周りに誰もやってる人がいないのでワカラン という方、結構多いのではないでしょうか。この記事では、ちょっと変わったテーブルコンペであるNumeraiと、そのKaggleとの差分について簡単にまとめました。 (2021/05/22追記) 内容が一部古いところがあったため、追記・修正を行いました。 賞金配分の仕組み(e.g., MMC2倍拳, payout factor) NMRの買い方 シングルモデル vs アンサンブル! Numeraier-ja slack

                            KagglerへのNumeraiのススメ
                          • 初心者でも大丈夫!GitHub Copilot Chatで始めるKaggle画像系コンペ - Qiita

                            この記事は Safie Engineers' Blog! Advent Calendar 2023 の3日目の記事です! はじめに セーフィー株式会社 で画像認識AIの開発エンジニアをしている水野です。2023年10月1日付で現職にジョインしたのですが、本業で語れるネタがまだ無いので趣味でたまに参加している Kaggle と流行りの生成AIを絡めた記事を投稿します。KaggleについてはKaggle Competitions Masterのランクを保持していますので、コンペに関する知見も織り交ぜながらお話しできればと思います。 早速ですが、このような悩みをお持ちの方はいないでしょうか? Kaggleに登録し、定番のタイタニックコンペを終えて、次は画像系コンペに参加してみたいが、どのように進めたらいいのか分からない 公開Notebookをベースラインとして作業をしているが、コードの意味が理解

                              初心者でも大丈夫!GitHub Copilot Chatで始めるKaggle画像系コンペ - Qiita
                            • 「4GM本」の翻訳書『Kaggle Grandmasterに学ぶ 機械学習 実践アプローチ』が出版されます - u++の備忘録

                              マイナビ出版より8月に『Kaggle Grandmasterに学ぶ 機械学習 実践アプローチ』と題した書籍が出版されることになりました。 世界各国で出版・公開された書籍 "Approaching (Almost) Any Machine Learning Problem" の翻訳書です。 豊富なコード例と機械学習にまつわる基礎的な内容を取り上げています。 book.mynavi.jp https://www.amazon.co.jp/dp/4839974985/ "Approaching (Almost) Any Machine Learning Problem"は、国際的なデータサイエンスコミュニティ「Kaggle」で史上初めて全カテゴリで最上位の称号を獲得した Abhishek Thakur さん による書籍です。 日本ではKaggleコミュニティを中心に「4GM本」とも呼ばれ、話題を

                                「4GM本」の翻訳書『Kaggle Grandmasterに学ぶ 機械学習 実践アプローチ』が出版されます - u++の備忘録
                              • Kaggleコンペ(LLM Science Exam)の振り返りと上位解法まとめ

                                コンペURL どんなコンペ? LLM(ChatGPT)が作った科学・技術・工学・数学分野の問題をKaggle notebookという限られた環境下(主にメモリ13GBと9時間以内に完了)でどのくらいの精度で解けますか?という自然言語処理系のコンペ。 以下に入出力例を示しています。 ・入力 (質問)バタフライエフェクトとは何ですか? (A)バタフライ効果とは、巨大な球体が不安定な平衡点から... (B)バタフライ効果は、古典物理学における必要条件... (C)バタフライ効果は、古典物理学における物理現象の... (D)バタフライ効果とは、巨大な球体が不安定な平衡点から.... (E)バタフライ効果は、物理学における因果関係の概念の適用と.... ・出力 E A B (解答を可能性の高い順番に出力) 評価指標はMAP@3(Mean Average Precision)でした。 ベースライン解法

                                  Kaggleコンペ(LLM Science Exam)の振り返りと上位解法まとめ
                                • Target Encoding はなぜ有効なのか

                                  分析コンペLT会 https://kaggle-friends.connpass.com/event/154881/

                                    Target Encoding はなぜ有効なのか
                                  • 「Kaggle Days Tokyo」参加録 - u++の備忘録

                                    ※ 「Kaggle Advent Calendar 2019」*1の12日目の記事です。 2019年12月11、12日に開催された「Kaggle Days Tokyo」*2に参加しました。1日目はワークショップとプレゼンテーション、2日目はオフラインコンペティションが開催されました。 資料や動画は恐らく公式から公開されると思うので、本記事では私の聴講した内容を基に、個人的な所感を述べます。なお1日目の内容はGunosyブログの記事*3やWantedlyブログの記事*4、twitterまとめ*5に詳しく記載されています。 1日目 Leveling-up Kaggle Competitions Ben Hamner, Kaggle CTO KaggleのCTOを務めるBenさんから、Kaggleの遍歴や今後の展望についてのお話でした 深層学習の大躍進以前からKaggleを開催している歴史や、強

                                      「Kaggle Days Tokyo」参加録 - u++の備忘録
                                    • 「Time-series code competition」で生き残るために Kaggleのストリーム処理縛りコンペに対する4つの施策

                                      「分析コンペLT会」は、KaggleやSIGNATEなど、データ分析のコンペに関連するLT(ライトニングトーク)を行う会です。能見氏は、「Time-series code competition」で生き残るために重要な4つのポイントについて発表しました。全2回。前半は、Train/Testの両対応と状態管理の設計について。 自己紹介 能見氏:それでは「Time-series code competitionで生き残るには」というタイトルで発表したいと思います。 まずは自己紹介します。能見と申します。主に「@nyanpn」というIDでいろいろなところで活動しています。大阪で10年ぐらい開発を行っているソフトウェアエンジニアです。 Kaggleでは専らテーブルデータのコンペにばかり出ています。なぜか、スポーツとサイエンス系のコンペにばかり縁があって、(スライドを示して)直近に出たコンペ5個がこ

                                        「Time-series code competition」で生き残るために Kaggleのストリーム処理縛りコンペに対する4つの施策
                                      • Tabular Data Binary Classification: All Tips and Tricks from 5 Kaggle Competitions

                                        In this article, I will discuss some great tips and tricks to improve the performance of your structured data binary classification model. These tricks are obtained from solutions of some of Kaggle’s top tabular data competitions. Without much lag, let’s begin. These are the five competitions that I have gone through to create this article: Home credit default risk Santander Customer Transaction P

                                          Tabular Data Binary Classification: All Tips and Tricks from 5 Kaggle Competitions
                                        • GitHub - abhishekkrthakur/approachingalmost: Approaching (Almost) Any Machine Learning Problem

                                          If you like the book, please consider writing a review on Google/Amazon/Goodreads 🙂 Please Note: If you are buying the paperbook book in India from Amazon India to show your support to the author, you are most-likely buying a counterfeit copy and supporting the sellers selling these illegal copies. In India, please buy from Flipkart (https://www.flipkart.com/approaching-almost-any-machine-learnin

                                            GitHub - abhishekkrthakur/approachingalmost: Approaching (Almost) Any Machine Learning Problem
                                          • Kaggle_LLMコンペの攻略法を解説.pdf

                                            "I'm Feeling Lucky" - Building Great Search Experiences for Today's Users (#IAC19)

                                              Kaggle_LLMコンペの攻略法を解説.pdf
                                            • 「業務時間の最大40%をKaggleに投資」がもたらす効果とは? Kaggle Grandmasterを2名同時輩出した医療AIベンチャーに聞く - エンジニアtype | 転職type

                                              「業務時間の最大40%をKaggleに投資」がもたらす効果とは? Kaggle Grandmasterを2名同時輩出した医療AIベンチャーに聞く 2023.04.24 働き方 ベンチャーAICTO 2023年3月、世界で278人しかいない『Kaggle』の最上位ランク「Grandmaster」の称号を獲得したエンジニアが同一企業から2名同時に誕生した。 その2人が在籍しているのが、医療AIベンチャーのアイリスだ。「Grandmasterが同一企業から2名同時に誕生することは世界的にもめずらしい」と語るのは、同社CTOの福田敦史さん。 「アイリスでは業務時間の最大40%を『Kaggle』に充てられる制度を設けています」(福田さん) なぜ「最大40%」にも及ぶ自己研鑽の時間をエンジニアに与えるのか。話を聞くと、エンジニアも事業も双方が育つ仕組みが見えてきた。 *「Kaggle(カグル)」とは、

                                                「業務時間の最大40%をKaggleに投資」がもたらす効果とは? Kaggle Grandmasterを2名同時輩出した医療AIベンチャーに聞く - エンジニアtype | 転職type
                                              • Kaggle コンペ Feedback Prize - English Language Learning でチーム参加15位金メダル取得で、Kaggle Master へ - A Day in the Life

                                                Kaggle のコンペティション、Feedback Prize - English Language Learningが終わり、約2650チーム中15位で金メダル取得となった。これで合計金メダル2つ、銀メダル1つを取得し、Kaggle Competitions Master の条件を満たし、コンペを始めた当初目指していた Master の称号を年内にとることができた。自分一人ではこの結果にはならなかったと思うので、チームメンバーの@masakiaota氏、@olivineryo氏に感謝だ。 Public LBではコンペ終了時に8位/2700チームの成績で金メダル圏内だったが、Public LB がLB全体の26%のデータでのスコア。スコア表示も小数点以下第二位まででLBのスコア表示がざっくりとしており、かつ我々のCVではかなり悪いスコアがPublic LB上ではやたら上位になったりとCV・

                                                  Kaggle コンペ Feedback Prize - English Language Learning でチーム参加15位金メダル取得で、Kaggle Master へ - A Day in the Life
                                                • ベイズ統計でKaggleを解いてみる - Qiita

                                                  はじめに 概要 ベイズ統計を用いてKaggleの1タイタニック問題を解いてみる. 分析は以下の手順で行う. データの可視化・理解 データの加工・前処理 ベイズ統計分析 モデルの記述 デザイン行列・データリストの作成 Stanファイルの記述 MCMC! 結果の評価 実行環境 Mac OS Sonoma 14.1 R version 4.3.1 RStudio version 2023.12.1+402 > R.versions version.string R version 4.3.1 (2023-06-16) > sessionInfo() other attached packages: [1] posterior_1.5.0 cmdstanr_0.6.1 lubridate_1.9.3 forcats_1.0.0 [5] stringr_1.5.0 dplyr_1.1.3 purrr

                                                    ベイズ統計でKaggleを解いてみる - Qiita
                                                  • 結局Kaggleって何を得られるの?

                                                    Discovery DataScience Meet up (DsDS) #1での登壇資料です。 ・なぜ自分がKaggleをしているのか ・普段Kagglerが多くいる職場で働いていく上で感じたこと ・Kaggleが実際どういう点で役に立つのか などを個人的な観点で話しました。 初級者・中級者向けの内容です。

                                                      結局Kaggleって何を得られるの?
                                                    • 予測モデルの気持ちで考える―。Kaggle上級者が説く、デー...

                                                      機械学習に注目が集まるのに伴い、参加者が増え続けるデータ分析コンペティション(コンペ)プラットフォーム「Kaggle(カグル)」。その特性から、「データサイエンティストにとって“筋トレ”みたいなもの」と評す声もある。Kaggleで最上級者「Grandmaster」の一角をなす阪田隆司さんは、それに同意する一人だ。世界中のデータサイエンティストら15万人以上がコンペで競い、交流する中、実務でも生きる本質的な力が鍛えられるのだという。 今回はそのKaggleについて、ユーザー名「Jack」が国内外で有名な阪田さんに、最近のコンペの傾向や基本的な流れを聞いた。また、彼が好成績を収めたコンペとしてIndoor Location & NavigationとInstant Gratificationを取り上げ、一流プレイヤーならではのアプローチも紹介する。【藤崎竜介、田名網勇希】 ◇「外資就活ドットコ

                                                        予測モデルの気持ちで考える―。Kaggle上級者が説く、デー...
                                                      • kaggle Tweet Sentiment Extractionコンペで5位でした。 - tkm2261's blog

                                                        kaggleツイートコンペPrivate 5位でした!GMまであとメダル2つ pic.twitter.com/psshCyctgp— Takami Sato (@tkm2261) 2020年6月17日 解法 (英語) www.kaggle.com 解法(日本語) チーム組んだguchio3さんの記事 guchio3.hatenablog.com 解説動画 www.youtube.com

                                                          kaggle Tweet Sentiment Extractionコンペで5位でした。 - tkm2261's blog
                                                        • 私がKagglerになるまでの道のり - Qiita

                                                          機械学習をどう学んだか by 日経 xTECH ビジネスAI② Advent Calendar 2019 1日目の記事です。今日は @kenmatsu4 が機械学習をどうやって学んできたか、有用だった本の紹介をまじえて解説してみたいと思います。初のポエム記事ですw こちらは日経 xTECHさん企画のAdvent Calendarですが、ちなみに実はワタクシ @kenmatsu4 はAI道場「Kaggle」の正体 AI道場「Kaggle」の衝撃、DeNAが人材採用の特別枠を設けた訳 の中の人だったりもします 1. 学生時代 大学では経済学部に所属していまして、統計学の先生の下で勉強しました。もう15年以上前ですw 当時データサイエンスという言葉は当然なかったですが、今、データサイエンティストとして働いているのはやはりこの時期にデータ分析に携われたおかげです。文系だったので、数学は独学で勉強し

                                                            私がKagglerになるまでの道のり - Qiita
                                                          • 日経のデータサイエンティスト3名(+外部1名)で自然言語処理コンペに出た話 — HACK The Nikkei

                                                            情報サービスユニットの増田です。普段は自然言語処理やBtoBプロダクトのユーザログの分析などを担当するデータサイエンティストとして仕事をしています。 本記事では、世界最大級のデータサイエンスコミュニティプラットフォームである「Kaggle」にて2-5月に開催されていた自然言語処理コンペティション「NBME - Score Clinical Patient Notes」 に弊社のデータサイエンティスト3名(ほか、外部の機械学習エンジニアの方1名)でチームを組んで参加した体験談を紹介します。 コンペティション概要 このコンペティションのホストであるNBME(National Board of Medical Examiners)は、米国で医師免許試験を実施している機関です。受験者はその免許試験において、仮想的な患者が発言した内容に基づきカルテを記述します。そのカルテの採点は現状人手で行っている

                                                              日経のデータサイエンティスト3名(+外部1名)で自然言語処理コンペに出た話 — HACK The Nikkei
                                                            • Titanic終了後の壁 - Qiita

                                                              こんにちは。shu421という名前でkaggleに参加しています。初めに伝えておきますが、この記事は独断と偏見の塊です。あくまで私の考えにすぎないので、一つの意見として頭の片隅にでも置いていただけたら嬉しいです。 対象読者 ・Titanicコンペでsubmissionだけはしてみたが、現行コンペの進め方がわからない方 ・kaggleとは何か知っているが、進め方がわからない方 今回お伝えすること ・Titanic終了後、初めて参加する現行コンペへの具体的な取り組み方 ・メダルを持っていない人向けの具体的なコンペの進め方 ・コンペのモチベーションの保ち方 目次 ・結論 ・軽く自己紹介 ・Titanicコンペ終了後の壁 ・初メダルを取るまでの軌跡 ・[本題]現行コンペの進め方 ・モチベーションの保ち方 ・まとめ ・最後に 結論 kaggleでメダルを取るためには、 ・全ての公開ノートブックとディ

                                                                Titanic終了後の壁 - Qiita
                                                              • kaggle NBME解法まとめ

                                                                2022/MBME 解法まとめ 概要 お題 目的 患者を診療する際にメモ書きする技術の習得と評価 今回の課題 試験の注釈にある臨床概念と、メモにある表現を対応付ける手法の開発 「食欲不振」→「食事量が少ない」「服がゆるい」 具体例 実際の形式だが文章は異なる(実際の文章はRule AcceptしてDataタブから見られる) 医療メモ: 20yo male with nauseous and abdominal pain since this morning, ate raw oysters yesterday... features: Nausea label: ["nauseous", "abdominal pain"] 必要性 現状の手法とその課題 実際にあった試験(USMLE)では以下の流れで行っていた 特定の臨床例を話すように訓練した人と対話し、メモを書く 訓練を受けた医者の採点者

                                                                  kaggle NBME解法まとめ
                                                                • 【Kaggleコンペふりかえり】Riiid! Answer Correctness Prediction | 株式会社AI Shift

                                                                  TOPTECH BLOG【Kaggleコンペふりかえり】Riiid! Answer Correctness Prediction こんにちは AIチームの戸田です 本記事では本日終了した、KaggleのコンペRiiid! Answer Correctness Predictionのふりかえりを行いたいと思います。 開催中のテーブルデータコンペにまともに取り組んだのが初めてなので、もし間違いなどございましたらご指摘いただければと思います。 コンペ概要 オーナーはRiiidLabsという韓国のAIスタートアップで、Santa TOEICというTOEICの学習アプリを提供しています。今回扱うデータもこのアプリのものだと思われます。 コンペティションでは、ユーザーが出された問題に正解できるかを、ユーザーの行動履歴から予測します。気をつけたいのは、単純にある問題に対して回答できるかの予測ではなく、ユ

                                                                    【Kaggleコンペふりかえり】Riiid! Answer Correctness Prediction | 株式会社AI Shift
                                                                  • Kaggle Feedback Prizeコンペ 反省会

                                                                    社内の勉強会で発表した資料になります。 Kaggleの「Feedback Prize - Evaluating Student Writing」コンペについての資料です。 工夫できる点や勉強になる点が多く、面白いコンペだったと思います。 コンペについての概要、自身の解法、上位解法のまとめ、加えてK…

                                                                      Kaggle Feedback Prizeコンペ 反省会
                                                                    • データコンペサイトを作る DjangoRestFramework編 - nykergoto’s blog

                                                                      この記事は atma Advent Calendar 2019 - Qiita 2019/12/21 の記事です。 今年自社のサービスとして オンサイトのデータコンペティション atmaCup をはじめました。 オンサイトデータコンペとは実際に会場に集まり、準備されたデータをテーマに沿って分析・予測を行い、その精度を競うイベントです。 データコンペで有名なのはKaggleですが、みんなで実際に集まり、かつ時間もその日の8時間と短いのが特徴で、 参加者のスキルがオンラインのデータコンペより強く結果に表れます。 このatmaCupですが当然やろうと思うとコンペ用のシステムも必要です。というわけで裏側のシステム 「ぐるぐる」 を僕が作っています。 この時記事ではそのバックエンド部分を担っている DjangoRestFramework についてその便利さとどういう機能を使ってぐるぐるを作っているか

                                                                        データコンペサイトを作る DjangoRestFramework編 - nykergoto’s blog
                                                                      • atmaCup#2 インターン生参加記録 #atmaCup - atma-inc__blog

                                                                        はじめに はじめまして、atmaでインターンをしている植田 (@tellmoogry)と申します 今回のatmaCup#2では一般参加者として参加させていただきました 本記事は1参加者目線からみたコンペの参加記事となります はじめに コンペ概要 コンペ中に取り組んだこと 結果 参加して良かった点 コンペ概要 今回のタスクは"睡眠データをもとにその人の睡眠の質を予測する"というものでした。 データはユーザーごとにtrain, testで連続した時系列データが与えられました。 目的変数はユーザーが入力した[1,2,3]の3段階で与えられ、値が小さいほどその人の睡眠の質が低いことを表します。 評価指標はRMSEでした。*1 public, private*2の中身については事前に以下のような説明がありました。 private/public は時系列によって分割されています。具体的には特定のユーザ

                                                                          atmaCup#2 インターン生参加記録 #atmaCup - atma-inc__blog
                                                                        • Kaggle Mechanisms of Action (MoA) Prediction 振り返り - IMOKURI Blog

                                                                          2020/9/4から2020/12/1までKaggleで Mechanisms of Action (MoA) Prediction コンペが開催されました。 参加された皆様、お疲れさまでした。 私は、日頃はインフラエンジニアでインフラの自動化やビッグデータ基盤の検討、設計、構築などを しています。 のですが、基盤の上で動く機械学習にも興味を持ち、半年ほど基礎勉強?をして、今回、このコンペに 参加しました。 機械学習の実力的には、自分で道を切り開いていけるほどではないので、Public NotebookやDiscussionの 内容を噛み砕いて、自分のNotebookに取り込んで、改良していくスタイルで取り組みました。 コンペ序盤に、オーバーフィッティングで、金メダル圏内まで行ったのですが、 中盤で drug_id が明らかにされてからは、いかに汎化性能を上げられるのかを調べながら望みまし

                                                                            Kaggle Mechanisms of Action (MoA) Prediction 振り返り - IMOKURI Blog
                                                                          • GitHub - ghmagazine/kagglebook

                                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                              GitHub - ghmagazine/kagglebook
                                                                            • 未経験から日立のトップデータサイエンティストに--データ分析コンペで磨いた“実践力”

                                                                              印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 2022年10月にスペインで行われた世界的なデータ分析コンペプラットフォーム「Kaggle」の世界大会において、日立製作所(以下、日立)の諸橋政幸氏が参加するチームが3位入賞を果たした。 同氏はデータ分析の部署に異動となってから、これまで本業以外の時間で国内外のデータ分析コンペにエントリーして数多くのメダルを手にするとともに、データサイエンティストとしてのスキルを磨き上げてきた。データ分析コンペへの挑戦と自身のデータサイエンティストとしてのキャリアをどのようにリンクさせてきたのか、諸橋氏に聞いた。 データ分析のスキルを習得するため分析コンペに挑戦 諸橋氏は、データから価値を生み出すデジタル事業「Lumada」を推進する日立において、デー

                                                                                未経験から日立のトップデータサイエンティストに--データ分析コンペで磨いた“実践力”
                                                                              • kaggleクジラコンペ2022 上位者解法まとめ

                                                                                はじめに 画像からクジラの個体識別を行うHappywhaleというkaggleコンペが2022/4/19まで開催されていました。 コンペ終了後に公開された上位者の解法からたくさん学びがあったので、備忘録も兼ねてまとめていきたいと思います。 上位者解法まとめ 1. Datasets オリジナル検出器 多くの方が自分で学習させた検出器を使ってクジラ領域を切り出したデータセットを使用していました。 全身領域や背ビレ領域を切り出した公開データセットがありましたが、同じ領域を切り出すにしても、検出器が異なると多様性が生まれて精度が上がったようです。 公開されているデータセットの予測値をGTとして検出器を学習し、予測が外れているデータだけアノテーションし直して再学習を繰り返す工夫をしているチームもありました(引用:4th solution) bounding box mix augmentation

                                                                                  kaggleクジラコンペ2022 上位者解法まとめ
                                                                                • kaggle expertになるために必要だと思うこと|ざこぷろ

                                                                                  私事ですが、2019 Data Science Bowlで2つ目の銀メダルを獲得しkaggle expertになることができました。(1つ目はIEEE-CIS Fraud Detection) なぜこの記事を書くのか① kagglerが増えてほしいから。 ② - ○ヶ月でkaggleで銀メダルをとった話 - ○ヶ月でkaggle expert(master)になった話 - kaggle expert(master)になるまでの記録 などのような記事がググればたくさん出てきますが、自分が実際にやってきてメダルを取るにはもっと大事なことがあるんじゃないかと思ったからです。 ※本記事では具体的な手法や技術については記載しません。 kaggleでメダルを取る上で大事なことは?具体的な手法や取り組んだことが注目されますが私はそれよりも大事なことがあると思ってます。それは、継続するモチベーションです。

                                                                                    kaggle expertになるために必要だと思うこと|ざこぷろ

                                                                                  新着記事