サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
アメリカ大統領選
copypaste-ds.hatenablog.com
はじめに コンペ概要 データの種類とタスク 評価方法 提出方法 勉強になる Kernel と Discussion [Avito EDA, FE, Time Series, DT Visualization ✓✓ | Kaggle Ideas for Image Features and Image Quality | Kaggle High Correlation Feature Image Classification Conf | Kaggle About image features & Image_top_1 features | Kaggle Aggregated features & LightGBM | Kaggle Simple CatBoost | Kaggle Fasttext starter (description only) | Kaggle text2imag
GBDTは分析コンペや業務で頻出しますが、アルゴリズムの詳細はパッケージごとに異なるため複雑です。できることなら公式ドキュメント・論文・実装を読み込みたいところですが、私の実力的にそれは厳しいので参考サイトをまとめておきます。ゆるふわ理解に留まっている自分用のメモです。 GBDT Gradient Boosting Interactive Playground トイデータを使ってGBDTの挙動を確認できる。しばらく遊べる。 YouTube とてもわかりやすい解説動画。Part1~4を視聴すればアルゴリズムの基本が理解できる。 Gradient Boost Part 1: Regression Main Ideas Gradient Boost Part 2: Regression Details Gradient Boost Part 3: Classification Gradient
はじめに metric learningとは マハラノビス距離学習 deep metric learningとは siamese network triplet network サンプルの選び方と直感的理解 L2 softmax network MNISTで実験 実験条件 実験1-1: 表現力の確認 実験1-2: 未知クラスの表現力を確認 実験1-3: 奇数/偶数を学習 天気データで実験 データの準備 実験条件 実験2-1: 表現力の確認(その1) 実験2-2: 表現力の確認(その2) 実験2-3: 未知クラスの表現力を確認 まとめ おわりに 参考 はじめに metric learningについて学ぶ機会があったので忘れないうちに得た知識を書き留めておきます。学んだ期間は10日程度と短く、deep learningも含めて初心者ですので疑いながら読んでいただければと思います。間違いを見つけ
はじめに コンペ概要 特別ルール kernel only 2stage 特別ルールの影響 データの種類とタスク 評価方法 提出方法 勉強になる Kernel と Discussion Mercari Interactive EDA + Topic Modelling | Kaggle Ridge Script | Kaggle ELI5 for Mercari | Kaggle A simple nn solution with Keras (~0.48611 P 12a776 | Kaggle Wordbatch FTRL+FM+LGB (LBL 0.42506) | Kaggle CNN GloVE single model-Private LB 0.41117 (~35th) | Kaggle Mercari Golf: 0.3875 CV in 75 LOC, 1900 s | K
はじめに コンペ概要 データの種類とタスク 評価方法 提出方法 勉強になる Kernel と Discussion Data Preparation & Exploration | Kaggle Stratified KFold+XGBoost+EDA Tutorial(0.281) | Kaggle Resampling strategies for imbalanced datasets | Kaggle Python target encoding for categorical features | Kaggle Dimensionality reduction (PCA, tSNE) | Kaggle Tune and compare XGB, LightGBM, RF with Hyperopt | Kaggle 2-level Stacker | Kaggle Entity
はじめに コンペ概要 データの種類とタスク 評価方法 提出方法 勉強になるkernelとdiscussion Stop the S@#$ - Toxic Comments EDA | Kaggle NB-SVM strong linear baseline | Kaggle Logistic regression with words and char n-grams | Kaggle LightGBM with Select K Best on TFIDF | Kaggle Wordbatch 1.3.3 FM_FTRL LB 0.9812 | Kaggle [For Beginners] Tackling Toxic Using Keras | Kaggle Improved LSTM baseline: GloVe + dropout | Kaggle Capsule net wit
このページを最初にブックマークしてみませんか?
『copypaste-ds.hatenablog.com』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く