タグ

NIPSに関するtnalのブックマーク (9)

  • クイズ王たちを凌駕する早押しクイズAIはこう作る~PyData.Tokyo Meetup #18イベントレポート

    国際学会で早押しクイズAIコンペティションが併催された。ここで優勝したAIについて、Studio Ousia CTO 山田育矢氏がどのような仕組みになっているか解説した。質問文からどのように解答候補を編み出し、何をチェックし、最終的に回答すると判断するまで4つのコンポーネントを組み合わせている。 AIに勝ち、人間のクイズ王にも勝った早押しクイズAIの実力 データサイエンティストが集うコミュニティ「PyData」ではデータ分析に関わるユーザーや開発者たちがツールやアイデアを共有している。コミュニティは世界各地に広がっており、日では東京、大阪、札幌、沖縄の4か所。定期的に勉強会を開催しており、毎回著名なデータサイエンティストやデータ分析の専門家が登壇している。 4月25日には東京版コミュニティとなる「PyData.Tokyo」が18回目のミートアップを開催した。テーマは「データ分析コンペティ

    クイズ王たちを凌駕する早押しクイズAIはこう作る~PyData.Tokyo Meetup #18イベントレポート
  • "How to Train a GAN" at NIPS2016 workshopのメモ - 緑茶思考ブログ

    NIPS2016でのWorkshop on Adversarial Training「How to train a GAN」での, GANを学習させるTipsのまとめ。 Workshopの動画 (30分程度で軽めなので観てみると良いと思います) www.youtube.com 以下は登壇者による↓のメモ https://github.com/soumith/ganhacks 前置き GANは現状House of cardsのようなもの. Generator,Discriminatorが上手く学習しているのかわからない 上手く言ってると思ったら突然崩壊する モデルの評価が難しい まだまだ発展途上で,今後新たなアルゴリズムや理論が登場する見込み. だが現状,以下のようなテクニックは重要と思われる. (以下のテクニックはZero scienceで単なるHackだと述べている) 1. 入力を正規化

  • "Understanding Dropout" (Baldi, NIPS 2013) メモランダム - 渋谷駅前で働くデータサイエンティストのブログ

    ちょっと今週は忙し過ぎて新しいことに取り組んでいる時間が1秒たりとも見つからないので、少し前にやった例の弊社分析チーム論文輪読会のネタをそのまま転載しておきますorz 元ネタはこちら。 ちなみに式を丸写しするのは面倒だったので、あくまでも資料として必要な部分にしかtexは書いてませんw ということで上記リンクから元論文をDLした上で、見比べながらお読みくださいw 1 Introduction そもそもdropoutはNIPS 2012で提案されたナイスなアイデアで、汎化性能は高めるし良いことずくめ。ランダムフォレストで個々の木ごとにランダムに素性を選択するのと同じように、サンプルごとに形成されるNN同士の相関を下げ、精度向上に貢献する。 けれどもその理論的背景は今のところ不明。なので、0.5という数字にこだわる必要があるのかどうかも分からないし、層ごとに変えた方がいいんじゃないかとかそうい

  • NIPS2013読み会を開催しました - Preferred Networks Research & Development

    もう花粉飛んでるらしいですね。比戸です。 昨年開いたICML2013読み会に続き、NIPS2013の論文を紹介する会を開きました。平日夜にも関わらず60名以上の申し込み、50名以上の参加があり、改めて機械学習への興味の高さを裏付けるものとなりました。会場提供にご協力頂いた東大の武田朗子先生、中川裕志先生、および発表者の皆さんありがとうございました。 ここで特筆したいのが、@mooopanさんが選んだ”Playing Atari with Deep Reinforcement Learning“です。 話題のDeep Neural Networkと強化学習を組み合わせて、テレビゲームで人間にも勝ったという、この日唯一のワークショップ論文紹介だったのですが、なんと著者の所属するDeepMind TechnologiesがGoogleに500億円以上で買収されたというニュースが3日前飛び込んでき

    NIPS2013読み会を開催しました - Preferred Networks Research & Development
  • NIPS2013読み会でword2vec論文の紹介をしました

    先週、 @sla さん主催のNIPS2013読み会で、word2vec論文(正確には続報)の紹介をしました。 ちょっと解説を書きます。 このところの深層学習ブームは自然言語処理にも来ていて、それらのウチの1つと言われています(が、全然deepっぽさはない)。 最初のモチベーションがどういうところにあったかというのは、ちょっと色々だと思いますが(おそらく最初は言語モデルにおける低頻度語の確率をウマイことモデル化・推定したかったんではないかな)、何はともあれ単語の意味的なあるいは統語的な振る舞いをベクトル表現で表すという研究が流行っております。 ベクトル表現というのは、1つの単語wに対して、その単語を「表現」するようなベクトル v(w) を作ります。 そんなこといわれても、作れば?ということなんですが、できたベクトルに対して何かしら「都合のいい」性質ができることが真の目標です。 「都合のいい」

  • NIPS2013読み会で発表しました - Yasuo Tabeiの日記

    東大で開催されたNIPS2013読み会で発表させていただきました. http://connpass.com/event/4728/ 参加者60人と大盛況で, 機械学習の人気の高さを再確認しました. 僕は, Scalable graph kernels for continuous attributesというタイトルの論文を発表しました. 要点は ノードに実数値ベクトルをもつグラフに対するGraphHopper Kernelを提案 類似度は2つのグラフに存在する同じ長さの最短路上のノードの類似度の和で定義 式変形により最短路におけるノードを通過する回数に関するforward-backward計算に帰着 実際のグラフに対しては, ノードの数の2乗で計算可能 高速かつ高精度 です. 下は発表スライドです. NIPS2013読み会: Scalable kernels for graphs with

    NIPS2013読み会で発表しました - Yasuo Tabeiの日記
  • 機械学習界隈の情報収集方法 - kisa12012の日記

    こんにちは.Machine Learning Advent Calendar (MLAC) 2013の14日目を担当します,[twitter:@kisa12012]です.普段は博士学生として,各地を放浪しながら機械学習の研究をしてます.今回の記事はボストンで執筆しています.現地時間(EST)での締切は守ったのでセーフ…ですよね? 日は機械学習技術的な内容の話ではなく,筆者が実践している機械学習関連の情報収集方法について纏めます*1.大きく分けて,学会情報の管理・論文情報の収集・その他の三種について述べたいと思います.今回のトピックの多くは他の分野にも通用する話になっているかと思います.他の分野の方がどのように情報収集されているのかも気になるところです. 学会情報の管理 まずは学会情報の管理についてです.機械学習に関連するカンファレンスは(特に近年乱立気味で)非常に沢山あります.全てをチ

    機械学習界隈の情報収集方法 - kisa12012の日記
  • NIPS2012に行ってきました - Preferred Networks Research & Development

    先日、NIPS (Neural Information Processing Systems)という学会に参加してきました。今回はその報告です。 NIPSは機械学習の分野においてはトップに位置づけられる会議の一つです。今回、私は特に発表とかはなかったのですが、幸運にも参加することができました。2012年からしばらくは、アメリカ合衆国ネバダ州タホ湖湖岸にあるHarveys HotelとHarrah’s Hotelで開催されます。今回はチュートリアルからワークショップまで、6日間すべてに参加してきましたので、その印象を独断と偏見で語ります。 NIPSはシングルトラックで招待講演と口頭発表を聞いて、残りは全部ポスターセッションという構成になっているのですが、これは口頭発表で聞き逃しもないし、詳しく聞きたい奴はポスターで詳しく聞けるし、なかなかうまい方式だと感じました。代償として口頭発表は非常に数

    NIPS2012に行ってきました - Preferred Networks Research & Development
  • NIPS stuff...

    my biased thoughts on the fields of natural language processing (NLP), computational linguistics (CL) and related topics (machine learning, math, funding, etc.) NIPS is over as of last night.  Overall I thought the program was strong (though I think someone, somewhere, is trying to convince me I need to do deep learning -- or at least that was the topic d'jour... or I guess d'an? this time).  I wa

  • 1