タグ

CTRに関するmoa108のブックマーク (3)

  • KaggleのCTR予測コンペで上位10%に入るまでの試行錯誤 - yasuhisa's blog

    週末KagglerとしてavazuのCTR予測コンペに参加しました。Kaggleは機械学習版のISUCONだと思ってもらえばよいです。コンペ自体は終わっているので、late submiteであまり意味はないかもしれません、練習です。leaderboard上で上位10%以内に行けたので、そこまでの試行錯誤をメモしておきます。謎ノウハウ(?)を持っているガチ勢じゃないと上位に行けないものかと思っていましたが、基に忠実にやればこれくらいの順位(上位7.6%)に行けましたし、他の人の工夫を垣間見えるという意味でも現場の機械学習やり始めたエンジニアにお薦めできそうでした。 参加の動機 目標感: 頑張りすぎずに上位10%以内に入る 試行錯誤 AthenaとRedashによる探索的データ解析 ベンチマークをまず超える 線形分類器でシンプルな特徴量 時系列要素を忘れていて過学習発生 特徴量エンジニアリン

    KaggleのCTR予測コンペで上位10%に入るまでの試行錯誤 - yasuhisa's blog
  • 広告機械学習最前線 DSPの中身を知る

    東京大学 松尾研究室が主催する深層強化学習サマースクールの講義で今井が使用した資料の公開版です. 強化学習の基礎的な概念や理論から最新の深層強化学習アルゴリズムまで解説しています.巻末には強化学習を勉強するにあたって有用な他資料への案内も載せました. 主に以下のような強化学習の概念やアルゴリズムの紹介をしています. ・マルコフ決定過程 ・ベルマン方程式 ・モデルフリー強化学習 ・モデルベース強化学習 ・TD学習 ・Q学習 ・SARSA ・適格度トレース ・関数近似 ・方策勾配法 ・方策勾配定理 ・DPG ・DDPG ・TRPO ・PPO ・SAC ・Actor-Critic ・DQN(Deep Q-Network) ・経験再生 ・Double DQN ・Prioritized Experience Replay ・Dueling Network ・Categorical DQN ・Nois

    広告機械学習最前線 DSPの中身を知る
  • Collaborative Deep Learning for Recommender Systems (KDD 2015) 読んだ - 糞糞糞ネット弁慶

    [1409.2944] Collaborative Deep Learning for Recommender Systems 同タイトルの論文 ( TeX のフォーマットは NIPS で用いられているもの) が arXiv にアップロードされていたので読んだ. Collaborative Topic Regression (CTR) と Stacked Denoising AutoEncoder (SDAE) を組み合わせて推薦を行う. Collaborative Topic Regression (CTR) Collaborative Topic Modeling for Recommending Scientific Articles (KDD 2011) この論文,CTR さえ分かってしまえばあとはどうにかなる. まず入力として,I 人のユーザと J 個アイテムの 0/1 レーティ

    Collaborative Deep Learning for Recommender Systems (KDD 2015) 読んだ - 糞糞糞ネット弁慶
  • 1