タグ

ブックマーク / repose.hatenadiary.jp (9)

  • データマイニングコンペティションサイト Kaggle にも Deep Learning ブームがきてるかと思ったのでまとめる - 糞糞糞ネット弁慶

    概要 最近話題の Deep Learning,NIPS や ICML,CVPR といった世界の話だろうと思っていたら Kaggle で Deep learning が去年一件,今年に入って更に一件優勝していたのでまとめる. Kaggle Kaggle: Your Home for Data Science おなじみのデータマイニングコンペティションサイト.データと目的関数が与えられた上で最も高いスコアを出したチームに賞金が出る. 最近では KDD Cup や http://www.kaggle.com/c/challenges-in-representation-learning-the-black-box-learning-challenge:title=ICML2013 workshop competition],や RecSys2013 Competition,レストランレビューサイ

    データマイニングコンペティションサイト Kaggle にも Deep Learning ブームがきてるかと思ったのでまとめる - 糞糞糞ネット弁慶
    showyou
    showyou 2013/05/10
  • アニソンの歌詞から作詞家を推定する問題としてのベンチマークをやってみる - 糞糞糞ネット弁慶

    目的 とりあえずどれぐらいでできるものかベンチマークとしてやってみる. 既存 ナイーブベイズ分類器の実装とか 〜畑さん/こだまさん問題〜 - naoya_t@hatenablog ナイーブベイズ分類器の実装とか(その2)〜新アルバムの楽曲で畑さん/こだまさん分類器を試してみた〜 - naoya_t@hatenablog データ 作詞家 データ数 大森祥子 126曲 森由里子 176曲 こだまさおり 187曲 くまのきよみ 200曲 畑亜貴 377曲 この5クラス分類に取り組む. 特徴量は歌詞に含まれる名詞/動詞/形容詞の頻度. モデル 普通にSVM. LIBSVM -- A Library for Support Vector Machines SVM実践ガイド (A Practical Guide to Support Vector Classification) - 睡眠不足?!を読み

    アニソンの歌詞から作詞家を推定する問題としてのベンチマークをやってみる - 糞糞糞ネット弁慶
    showyou
    showyou 2012/09/17
    吹いた。特徴知りたいw
  • WSDM 2012(Web Search and Data Mining)で気になる論文まとめ - 糞糞糞ネット弁慶

    かのid:y_yanbe氏もこう言っている. ちょっと前ならHypertextかWWWかCIKMあたりで発表されてたであろう研究のうち、それなりの割合がWSDMに行ってそう。バックにGYM(Google, Yahoo!, Microsoft)がついてるようなもんだからそりゃ強いよなあ 2011-11-13 17:41:06 via web どの学会も時間が経つに従って参加者の関心が分散し多様化していって、そこから特定の関心を持つ人たちがスピンアウトして、っていうのを繰り返していて、そういうライフサイクルの中でWSDMはいま一番面白いというか旬な時期なんだろうな 2011-11-13 18:42:10 via Twitter for iPhone そういうわけでWSDM2012のaccepted papersからタイトルだけ気になるものをまとめる. ざっと見た感じtwitter,もしくはそれ

    showyou
    showyou 2012/01/07
  • 少しでも研究に興味がある人,面白いテーマを探している人は「研究に必要なたったN個の事」とかいう記事を読まずに今すぐに"How to do good research, get it published in SIGKDD and get it cited!"を読

    言いたいことはタイトル. そもそもSIGKDDとはSpecial Interest Group on Knowledge Discovery and Data Miningというデータマイニングや知識獲得のトップカンファレンス.WWWについで読んでて興味が合う論文が多い. How to do good research, get it published in SIGKDD and get it cited!(pdf) 173ページあるスライドだけど良い事ばかり書いてあるし,読者を楽しませるような非常に多くの著者の実体験(成功したものだけでなく,失敗したものも)や,後半になるとダメな論文,間違っている論文,その例が大量に載っていて飽きずに読める.ただKDDに通したい人だけでなく,研究を少しでもやろうとしている人,論文を書こうとしている人,面白いことをやりたい人は必ず読むべき. 適当に面白か

    少しでも研究に興味がある人,面白いテーマを探している人は「研究に必要なたったN個の事」とかいう記事を読まずに今すぐに"How to do good research, get it published in SIGKDD and get it cited!"を読
  • Predicting the Conversion Probability for Items on C2C Ecommerce Sites(CIKM 2009) 読んだ - 糞糞糞ネット弁慶

    Predicting the conversion probability for items on C2C ecommerce sites 概要 著者はeBay research Lab.そもそもeBayにラボがあるのを最近知った.しかしここは公式ページにpublicationsがまとまっていないので非常に探しにくい. 売れる商品/売れない商品を予測する.手法は(古典的な)線形回帰/ロジスティック回帰を用い,評価はprec/recall,P@N. 用いる特徴量 以下列挙. アイテムの特徴量 カテゴリの人気度 商品の単語を区切って単語の人気度 その商品の競合相手(類似する商品数) そのうち売れた商品の比 商品の価格 - 類似商品の平均価格 fix priceかどうか(ヤフオクで言うところの即決ですかね) 商品の量 返品対応 Best Offer(eBay独自のシステム,購入後に値段交渉でき

    Predicting the Conversion Probability for Items on C2C Ecommerce Sites(CIKM 2009) 読んだ - 糞糞糞ネット弁慶
  • 第一回機械学習若手勉強会にて「みんなの就職活動日記」クロールについて話した - 糞ネット弁慶

    というわけで第一回機械学習若手勉強会。機械学習に必要なデータ集めの話という事で、@shukatsu_ngを作る際に行ったみんなの就職活動日記クローラについて話した(現実逃避のために開発合宿してきた - 糞ネット弁慶)。 コードはここに置いてます→no title というわけで主催の@koh_tと@john_a_dreamsお疲れ様でした。 そしてTsukuba.R#8の参加者も募集してます。 Tsukuba.R#8 - Tsukuba.R - Seesaa Wiki(ウィキ) 僕は「45分で振り返るuseR! 2010」をやります。

  • Tsukuba.R#6お疲れ様でした - 糞ネット弁慶

    Tsukuba.R#6 - Tsukuba.R - livedoor Wiki(ウィキ) 今日の筑波は最高気温が一桁レベルと非常に寒い感じでしたが、お疲れ様でした。 僕はR+機械学習ライブラリで疎行列が扱いたかったので、そのパッケージの導入をLTで喋りました。 silideshare : とある言語の対疎行列<アンチスパースネス> 参考資料はこちら Sparse Matrices in package Matrix and applications あとロゴ画像生成はこちら。 no title

    showyou
    showyou 2009/11/24
    なんか対疎行列がわかった気になった。扱う分には存在要素のインデックス(not禁書目録)とproxyパターン使ってあとから要素を生成すればよさそうですね。 数学上の対疎行列の扱いはこの発表とは違う話なんだろうけど
  • ゼミのちはじめてのカーネル法 - 糞ネット弁慶

    春からやってたPRML自主ゼミが無事上巻を終えた感じなので下巻に移ろうとするも下巻のトピックの説明具合が所々不穏じゃねということで、まずはカーネル法を これを使ってやってみようという話になった初回のゼミ。 で、導入という事でリプレゼンター定理を見たわけですが、リプレゼンター定理の証明がシンプルで納得。この凄いので早く研究室で注文した分も届いてください。 リプレゼンター定理とは、損失関数に正則化を加えて最適化する問題において、正則化項がL2ならば、最適解はをサンプル点として の形で書けるというもの。 「おーL2正則化だとが消えていい感じにサンプル個のカーネル線形和で書けるのかー」とか言ってたらid:syou6162が「甘い、これまでのL2正則化入りのパラメータ推定もカーネルで記述可能だと示唆しているんだ!!!!!!(ここ適当」とか言い出してうおーそりゃもっとすげーとかいう感じで終了。 あと

    ゼミのちはじめてのカーネル法 - 糞ネット弁慶
    showyou
    showyou 2009/10/07
    あーカーネル法完全に勘違いしてた<自分
  • 今日のDBCLS - 糞ネット弁慶

    twitterのクラスタリングの一環で404 Not Foundでプロット この名前検索し辛い。腐女子検索避けか 前に集めた2年分のデータをとりあえずPageRank100位まででplot。 これだと見づらい。 Modularity最大化でクラスタリングするとこんな感じ。当はアイコンもクロールしてあるのでノードがアイコンで表示される筈なんだけど表示されない。s.o.c.i.a.r.i.u.mは可視化とクラスタリングを同時にこなしてくれたり色も綺麗で素晴らしいと思うんだが、いかんせんドキュメント少ないっぽいのでここらへんわからなくて詰まり気味。誰か教えて欲しい。 来週は対象ユーザを増やす+時系列でプロットさせて動画にして上げたい。 ついでに統合TV | 生命科学系DB・ツール使い倒し系チャンネルのtDiary用記事推薦プラグインの説明ページとか作った こんな感じ→ g86 has gon

    今日のDBCLS - 糞ネット弁慶
    showyou
    showyou 2009/10/07
  • 1