第2回全脳アーキテクチャ勉強会での講演スライドです。Deep Learning の基礎から最近提案されている面白トピックを詰め込んだサーベイになっています。
2016 12/21 「数式がわからなくたってDeep Learningやってみたい!人集合- dots. DeepLearning部 発足!」で発表した資料です。
トピックモデルを用いてWeb小説のジャンル・流行を分析しよう Presentation Transcript トピックモデルを用いて WWeebb小説のジャンル・ 流行を分析しよう 22001133//0033//1199 ((KKMMCC春合宿22001133)) 近藤 誠一 ((@@sseeiikkiicchhii)) 自己紹介 近藤 誠一 (@seikichi):p 大学院修士1回生p 情報学研究科知能情報学専攻趣味:p ラノベ,料理,アニメ近況:p 電子書籍を買いまくり読みまくり楽しすぎp シュウ……カツ……シュウ……カツ…… 目次 p 今「小説家になろう」がアツいp トピックモデルことはじめp Latent Dirichlet Allocation (LDA) を用いたWeb小説ジャンル解析p Dynamic Topic Model (DTM)
2013年11月期 AITCオープンラボ R言語で始めよう、データサイエンス(ハンズオン勉強会) 〜機会学習・データビジュアライゼーション事始め〜Read less
機械学習×プログラミング勉強会 vol.2 での発表資料です。 ベイズの何が嬉しいか、ノンパラベイズの何が嬉しいかを数式を使わず語ります。
3. オープンデータとは • オープンデータとは、誰でも自由に使え て再利用もでき、かつ再配布できるよう なデータである。課すべき決まりは、た かだか「作者のクレジットを残す」ある いは「同じ条件で配布する」程度である。 http://opendatahandbook.org/ja/what-is-open-data/ • “A piece of data or content is open if anyone is free to use, reuse, and redistribute it — subject only, at most, to the requirement to attribute and/or share- alike.” http://opendefinition.org/
1. PRML 読書会 (第12回) 10.1 変分推論 坪坂正志 Hatena/twitter id: tsubosaka Mail: m.tsubosaka@gmail.com 2. 2010/3/7 PRML読書会 第12回 2 第10章 近似推論法 • 観測データ������が与えられたときの潜在変数������の事後分布 ������(������|������)を求める • 完全にベイズ的なモデルでは未知パラメータにも事前分布が与えられ、 潜在変数ベクトルの中に含まれている • EMアルゴリズムでは完全データの対数尤度の期待値を隠れ 変数の事後分布に沿ってとった • しかし、事後分布を求めることや期待値を計算することが不可能な事が 多い • Ex: 次元が高すぎて空間全体を直接扱えない、期待値が解析的に計算 できない… • 近似法を用いて事後分布を求める 3. 2010/3/7
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces This document summarizes a research paper on modeling long-range dependencies in sequence data using structured state space models and deep learning. The proposed S4 model (1) derives recurrent and convolutional representations of state space models, (2) improves long-term memory using HiPPO matrices, and (3) efficiently compu
PFIセミナー2013年6月6日分です。Deep Learningの技術的基礎からBengioの怪しげな妄想まで。Read less
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く