タグ

ブックマーク / qiita.com/namakemono (3)

  • データの傾向が変わっても性能が落ちにくいモデルの作り方 - Qiita

    下記論文のサーベイ記事です. - タイトル: Generative and Discriminative Text Classification with Recurrent Neural Networks - Deep Mindの論文 - 6 Mar 2017 - 著者: Dani Yogatama, Chris Dyer, Wang Ling, Phil Blunsom 主旨 テキスト分類でデータの傾向が変わっても生成モデルは識別モデルより性能が落ちにくいことを実証. 要約 日常だとデータの傾向は流行によってデータの出現頻度とか変わるし,新たな概念とかもすぐできる. 傾向が変わるたびにデータセットを全て学習しなおすのは時間がかかるので,できれば新たなデータのみで学習させたい.(Continual learning) あと,未知のクラスであっても予測できるようにしたい.(Zero-sho

    データの傾向が変わっても性能が落ちにくいモデルの作り方 - Qiita
  • Kaggle - Instacart上位陣解法まとめ - Qiita

    KaggleのInstacart Market Basket Analysis1の上位陣解法についてまとめました. 参考になりそうでしたら幸いです. Instacart Market Basket Analysis1とは ユーザーが次に注文する商品の予測. データ構成2 ユーザー数: 20万 注文回数: 340万 商品数: 5万 全体の把握には記事2が参考になります. [2位] 2nd Place Solution Name: ONODERA Kaggle Discussion: https://www.kaggle.com/c/instacart-market-basket-analysis/discussion/38143 Code: https://github.com/KazukiOnodera/Instacart Writeup: http://blog.kaggle.com/2

    Kaggle - Instacart上位陣解法まとめ - Qiita
  • Kaggle - Leaf Classification - Qiita

    Kaggleの過去問Leaf Classificationに挑戦して得られた知見です. 問題概要 画像と特徴量(192次元)から99クラスのラベルに葉っぱを分類する. Datasets 192次元の特徴量 + 画像 ラベルごとのサンプル数: 10 分類クラス数: 99 訓練データ数: 990(99x10) 検証データ数: 594 Solutions 画像と特徴量を入力,出力を99クラスのソフトマックスとするネットワークを作る. 画像数が少ないので小さめのシンプルなネットワークにする. Architecture ____________________________________________________________________________________________________ Layer (type) Output Shape Param # Connect

    Kaggle - Leaf Classification - Qiita
  • 1