タグ

ブックマーク / ibisforest.org (39)

  • 次元削減 - 機械学習の「朱鷺の杜Wiki」

    次元削減 (dimension reduction)† 高次元のデータを,何らかの情報をできるだけ保存するように,低次元のデータに変換すること dimension reduction は基的な概念ですが,訳語が結構バラバラなことに気づきました.みなさんは,どう呼んでいますか?

    goinger
    goinger 2009/10/21
  • しましま/DMSM011 - 機械学習の「朱鷺の杜Wiki」

    第11回人工知能学会データマイニングと統計数理研究会† このページはしましまが第11回人工知能学会データマイニングと統計数理研究会 に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください. ↑ Blog情報を利用した書籍需要予測モデル† ○菊田剛,文健哲,寺野隆雄(東京工業大学) 出版も,取り次ぎも業績悪化 10年で2.5兆→2.0兆 返品率 40% 国内のBlog情報とAmazonの売上げの関連 Ammazonについて研究を適用 売上げと言及数の相関は高いものがあるが,そうでないものもが, 時間遅れ lag は正負があり,ひろがりがある. ↑ 産業連関表の数理的な分析をめぐる話題について† ○ 田村肇 (筑波大学) 産業連関表:5年ごとに1年間などの財・サービスの産業間の取引量を示

    goinger
    goinger 2009/10/21
  • 隠れMarkovモデル - 機械学習の「朱鷺の杜Wiki」

    隠れMarkovモデル (hidden Markov model)† 状態を潜在変数となっているMarkovモデルに状態に依存した観測変数のシンボルの出力確率 \(b_j(k)=\Pr[v_k|q_t=S_j]\) を加えたもの. すなわち,初期状態分布 π,遷移確率分布 A,観測変数のシンボルの出力分布 B で定義される. 隠れMarkovモデル:\(\lambda=(A,B,\pi)\) 潜在変数である状態:\(\{S_i\}_i^N\) 遷移確率分布 \(A\):時刻 t で状態 \(S_j\) へ遷移する確率 \[\Pr[q_t=S_j|q_{t-1}=S_i,\ldots,q_{t-n}=S_k]\] 観測シンボル確率分布 \(B\):状態 \(S_j\) でシンボル \(v_k\) が出力される確率 \[b_j(k)=\Pr[v_k|q_t=S_j]\] 初期状態分布 \(\p

    goinger
    goinger 2009/10/21
  • 時系列 - 機械学習の「朱鷺の杜Wiki」

    時系列 (time series)† 時系列とは,時間と共に変化するデータやイベントを継続的に観測した系列. 通常は,観測する時間間隔は一定. 統計などの分野では,従来から将来のデータの予測,検定,周期性の検証などが行われてきた. データマイニングの分野では次のような解析もなされるようになってきた(文献1) 索引付け(内容による質問):質問時系列 \(Q\) と,類似度 \(D(Q,C)\) にもとづいて,事例集合中から最も類似した時系列を見つける. クラスタリング:類似度尺度 \(D(Q,C)\) に基づき事例集合中の時系列をグループ化する. クラス分類:ラベルのない時系列 \(Q\) を,二つ以上の事前に定めたクラスに割り当てる. セグメンテーション:\(n\)個のデータ点を持つ時系列 \(Q\) を,この\(Q\) を近似するような \(K\ll n\) 個の部分から成るモデル \(

  • Book/データマイニングの基礎 - 機械学習の「朱鷺の杜Wiki」

    キーワード† データマイニング, 知識発見, 決定木, CART, ID3, 単純ベイズ, 最近傍法, 相関ルール, Apriori, アンサンブル学習, バギング, ブースティング, ランダムフォレスト, クラスタリング, 凝集型階層的クラスタリング, k-means法, ファジィc-means法, 混合分布, EMアルゴリズム, SVM, カーネル, 帰納論理プログラミング, FOIL, 数値属性の離散化, 特徴選択, 特徴抽出, 事例選択, 交差確認, ブートストラップ, 検定, 精度, 再現率, ROC曲線, 多重比較, 順位相関係数, 最尤推定, AIC, MDL, BIC ↑ メモ† データマイニングについて,初学者向き(学部3回〜修士1回)に書かれた.現在,初学者には最も薦められるだと思う. アルゴリズムの説明だけではなく,実際にデータから知識発見を行う過程を重視している

    goinger
    goinger 2009/10/21
  • 自然言語処理 - 機械学習の「朱鷺の杜Wiki」

    リンク集† 言語情報処理ポータル Statistical natural language processing and corpus-based computational linguistics: An annotated list of resources Natural Language Processing @ AAAI AI topics Related links @ Arturo Montejo Ráez nlp.nagaokaut.ac.jp:自然言語処理 @ 長岡技科大自然言語処理研 雑談@くどう:FrontPage:自然言語処理のツールや書籍の紹介などがまとめられている. ACLWiki ACL Anthology:計算機言語学関連の論文のデジタルアーカイブ ACL Anthology Network:文献間や研究者間のネットワークについての統計 Freeware†

    goinger
    goinger 2009/10/21
  • 統計物理 - 機械学習の「朱鷺の杜Wiki」

    2023-12-04 python 2023-11-22 PRML/errata2 2023-11-21 PRML/errata1 2023-11-01 しましま/IBIS2023 2023-10-29 IBIS 2023-06-16 人工知能学会全国大会 2023-06-11 しましま/人工知能学会全国大会2023 2023-03-28 Book 2022-11-27 朱鷺の社 2022-11-24 しましま/IBIS2022 2022-07-08 AutoTicketLinkName 2022-06-17 しましま/人工知能学会全国大会2022 2021-11-13 しましま/IBIS2021 2021-10-29 回帰分析 2021-06-11 しましま/人工知能学会全国大会2021 2021-03-07 MenuBar 2021-02-15 python/numpy 2020-12

    goinger
    goinger 2009/10/21
  • python - 機械学習の「朱鷺の杜Wiki」

    python一般† python.org:公式サイト Wiki Package Index iOS用Python環境 Computable Python for iOS Python Math PyPad Pythonista 英語資料 Python Course:Python のいろいろなトピックについての講義を集めたサイト Python Quick Reference @ Richard Gruet (旧版 日語訳) Google's Python Class OLamp.com -- Python Dev Center:O'Reillyのpython関連ニュース Python Miro Community:チュートリアル講演ビデオのポータル Wikipedia:Python_(programming_language) Python tools that everyone shou

  • 転移学習 - 機械学習の「朱鷺の杜Wiki」

    転移学習 (transfer learning) / 帰納転移 (inductive transfer)† 転移学習 (transfer learning) の他,帰納転移 (inductive transfer),ドメイン適応 (domain adaptation),マルチタスク学習 (multitask learning),knowledge transfer, learning to learn, lifetime learning などの呼び名もある. 形式的ではないが NIPS2005 Workshop — inductive transfer: 10 years later で示されている次の定義が広く受け入れられると思う. the problem of retaining and applying the knowledge learned in one or more ta

    goinger
    goinger 2009/10/09
  • しましま/DMSM009 - 機械学習の「朱鷺の杜Wiki」

    第9回人工知能学会データマイニングと統計数理研究会† このページはしましまが第9回人工知能学会データマイニングと統計数理研究会 に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください. ↑ 招待講演:劣モジュラ最適化† 京都大学 数理解析研究所 岩田覚 教授 講演概要:劣モジュラ関数は,凸関数の離散版に当たる集合関数であり,組合せ最適化を始めとして,情報理論,待ち行列理論,ゲーム理論等,数理工学の様々な分野で頻繁に現れる.ネットワークのカット容量関数,マトロイドの階数関数,多元情報源のエントロピー関数などが劣モジュラ性を有する.講演では,劣モジュラ関数に関する最適化問題の基礎から最新の成果までを紹介する. 劣モジュラ関数:有限集合 V に対し,関数 f:{Vのべき集合}→{実数}

  • Weka - 機械学習の「朱鷺の杜Wiki」

    ライブラリ† AlgorithmsForWekaWakka:ファジィc-means法などのファジィ系の手法 BioWeka:バイオインフォマティクス fast-random-forest Fuzzyweka:if-thenルールによるファジィ分類器 jBNC:ベイジアンネットライブラリ HMMWeka:隠れMarkovモデル Olex-GA:文書分類ルールを遺伝的アルゴリズムで獲得 pHMM4weka:隠れMarkovモデルによるタンパク質の分類 Spectral Clusterer for WEKA @ Luigi Dragone:スペクトラルクラスタリング Weka4WS:Grid環境でWekaを実行 WEKA Classification Algorithms:Wekaのプラグイン集.ニューラルネット,学習ベクトル量子化,自己組織化マップなど. Weka LibSVM (WLSVM)

  • おむつとビール - 機械学習の「朱鷺の杜Wiki」

    おむつとビール (diaper and beer)† データマイニングによって発見された再利用可能な知識の例として著名. Ronny KohaviがICML1998で紹介したのがおそらく最初.以下はその該当部分の引用. http://www.lsi.upc.edu/~bejar/apren/docum/chasm.pdf Diapers and Beer. Most famous example of market basket analysis for the last few years. If you buy diapers, you tend to buy beer. T. Blischok headed Terradata’s Industry Consulting group. K. Heath ran self joins in SQL (1990), trying to f

  • ログイン - 機械学習の「朱鷺の杜Wiki」

    Site admin: 朱鷺の杜Wiki管理者 PukiWiki 1.5.4 © 2001-2022 PukiWiki Development Team. Powered by PHP 7.4.33. HTML convert time: 0.001 sec.

  • しましま/DMSM001 - 機械学習の「朱鷺の杜Wiki」

    第1回データマイニングと統計数理研究会 (2006.7.11開催 @ 東京 統計数理研究所)† このページはしましまが人工知能学会 第1回データマイニングと統計数理研究会 に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください. ↑ 「知識基盤形成のための大規模半構造データからの超高速パターン発見」† 有村 博紀(北海道大学大学院情報科学研究科) 半構造データ (semi-structured data;SSD):大規模,ヘテロな集団,弱く構造化されたデータ 高速で頑健なSSD用のマイニング:既存手法は直接的にはSSDに適用できない. efficient(多項式時間で計算)や頑健(仮説への多少のずれはOK) → 実用的には効率も頑健性も不十分なレベル ABC*DEF のような,gap

  • 半教師あり学習 - 機械学習の「朱鷺の杜Wiki」

    文献1の第1章のイントロダクションによれば,1960年代からこのアイデアは存在するらしい. また,教師なしデータを用いて予測精度を向上させる半教師あり学習の手法では,データに次のいずれかの性質が仮定されている. 半教師あり平滑性仮定:もし二つの点 x1 と x2 が高密度領域で近ければ,出力 y1 と y2 も関連している. クラスタ仮定:点が同じクラスタになるなら,それらは同じクラスになりやすい. 低密度分離:決定境界は低頻度領域にあるべき. 多様体仮定:(高次元の)データは,低次元の多様体上に(ほぼ)存在する. -- しましま ↑

    goinger
    goinger 2009/07/27
  • 教師なし学習 - 機械学習の「朱鷺の杜Wiki」

    2023-12-04 python 2023-11-22 PRML/errata2 2023-11-21 PRML/errata1 2023-11-01 しましま/IBIS2023 2023-10-29 IBIS 2023-06-16 人工知能学会全国大会 2023-06-11 しましま/人工知能学会全国大会2023 2023-03-28 Book 2022-11-27 朱鷺の社 2022-11-24 しましま/IBIS2022 2022-07-08 AutoTicketLinkName 2022-06-17 しましま/人工知能学会全国大会2022 2021-11-13 しましま/IBIS2021 2021-10-29 回帰分析 2021-06-11 しましま/人工知能学会全国大会2021 2021-03-07 MenuBar 2021-02-15 python/numpy 2020-12

    goinger
    goinger 2009/07/27
  • 強化学習 - 機械学習の「朱鷺の杜Wiki」

    強化学習 (reinforcement learning)† 知識をもった教師からサンプルが与えられるのではなく,環境から与えられる報酬を元に,環境のモデルと報酬を最大化する政策を学習する枠組み. -- しましま 強化学習は、ベルマン方程式 \(Q(s,a)=\int Q(s'|a)p(a|\theta)+r_{ss'} p(s'|s,a)da\)のもとで期待報酬和\(\int Q(s,a)p(a|\theta)da\)を最大化する政策θを探す問題として、定式化される。このように定式化された強化学習では、ベルマン方程式を解くことと、最適な政策を探すという2つの操作を同時に行う。ベルマン方程式の解き方によって、モンテカルロ法、TD(λ)、動的計画法と呼び分ける。一方、政策の最適化(サンプリング)は方策オンと方策オフの2つ分類される。 応用上の問題点としては次のようなものが挙げられる。 状態s

  • DMSM - 機械学習の「朱鷺の杜Wiki」

    第12回研究会 (2010.03.29-30開催 @ 統計数理研究所)† ホームページ 共催:日学術会議 情報学委員会 大量実データの利活用基盤分科会 協賛:電子情報通信学会 情報論的学習理論時限研究専門委員会 と 科学技術振興機構(JST) さきがけ「知の創生と情報社会」 コメント Joe Suzuki (鈴木譲) 公式ブログ しましま/DMSM012 ↑

    goinger
    goinger 2009/05/19
  • FrontPage - 情報論的学習理論と機械学習の「朱鷺の杜Wiki」

    朱鷺の杜Wiki(ときのもり うぃき)† 朱鷺の杜Wikiは,機械学習に関連した,データマイニング,情報理論,計算論的学習理論,統計,統計物理についての情報交換の場です.これら機械学習関係の話題,リンク,関連事項,書籍・論文紹介などの情報を扱います. 更新されたページを確認するにはRSSリーダを使って右下のRSSリンクをチェックするか,最終更新のページを参照してください. ページの中でどこが更新されたかを見るには,上の「差分」をクリックして下さい. 数式の表示に MathJax を利用しています.数式の上でコンテキストメニューを使うと各種の設定が可能です.特に設定をしなくても数式は閲覧できますが,フォントをインストールすれば数式の表示がきれいで高速になります.詳しくは 数式の表示 のページを参照して下さい. ごく簡単なWikiの使い方がこのページの最後にあります.トップページやメニューなど