タグ

ブックマーク / ibisforest.org (15)

  • IRLS法 - 機械学習の「朱鷺の杜Wiki」

    反復再重み付け最小二乗法 (IRLS法; iteratively reweighted least squares method)† 対角の重み行列 \(W\) を用いた重み付きの線形方程式 \[WX\mathbf{\theta}=W\mathbf{y}\] の解は,線形回帰の正規方程式(see 回帰分析)を重み付けした \[(X^\top W X)^{-1}X^\top W \mathbf{y}\] となる.しかし,\(W\) が解 \(\mathbf{\theta}\) に依存するときには,反復再重み付け最小二乗法 (IRLS法; iteratively reweighted least squares method) が必要になる. IRLS法では,次のように再重み付けしながら,重み付2乗和誤差を最小化する 重み \(W\) の更新 重み付二乗和誤差を最小化してパラメータを更新: \

    mooz
    mooz 2017/10/30
  • しましま/人工知能学会全国大会2016 - 機械学習の「朱鷺の杜Wiki」

    人工知能学会第30回全国大会† このページはしましまが人工知能学会全国大会2016に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください. ホームページ: http://ai-gakkai.or.jp/jsai2016/ 日時:2014年6月6日(月)〜 6月9日(木) 会場:北九州国際会議場他(福岡県北九州市) ↑ 1C2-1 画像特徴量を利用したユーザプロファイルの拡張とローカルショップ推薦への応用† 井 源(筑波大学システム情報工学研究科) 延原 肇(筑波大学/システム情報工学研究科/知能機能システム専攻) 横石 圭介(株式会社サイバード) 大東 佑太(筑波大学システム情報工学科知能機能システム専攻) 利用者の過去の行動履歴中の画像とFBから得た近所の店舗の画像をマッチングして

  • ログイン - 機械学習の「朱鷺の杜Wiki」

    Site admin: 朱鷺の杜Wiki管理者 PukiWiki 1.5.4 © 2001-2022 PukiWiki Development Team. Powered by PHP 7.4.33. HTML convert time: 0.001 sec.

    mooz
    mooz 2015/10/15
    必殺技すごい
  • python - 機械学習の「朱鷺の杜Wiki」

    python一般† python.org:公式サイト Wiki Package Index iOS用Python環境 Computable Python for iOS Python Math PyPad Pythonista 英語資料 Python Course:Python のいろいろなトピックについての講義を集めたサイト Python Quick Reference @ Richard Gruet (旧版 日語訳) Google's Python Class OLamp.com -- Python Dev Center:O'Reillyのpython関連ニュース Python Miro Community:チュートリアル講演ビデオのポータル Wikipedia:Python_(programming_language) Python tools that everyone shou

    mooz
    mooz 2015/09/02
    数値計算・最適化などの Python ライブラリがまとまってい
  • 不等式 - 機械学習の「朱鷺の杜Wiki」

    2023-12-04 python 2023-11-22 PRML/errata2 2023-11-21 PRML/errata1 2023-11-01 しましま/IBIS2023 2023-10-29 IBIS 2023-06-16 人工知能学会全国大会 2023-06-11 しましま/人工知能学会全国大会2023 2023-03-28 Book 2022-11-27 朱鷺の社 2022-11-24 しましま/IBIS2022 2022-07-08 AutoTicketLinkName 2022-06-17 しましま/人工知能学会全国大会2022 2021-11-13 しましま/IBIS2021 2021-10-29 回帰分析 2021-06-11 しましま/人工知能学会全国大会2021 2021-03-07 MenuBar 2021-02-15 python/numpy 2020-12

    mooz
    mooz 2015/03/16
    inequality. 色々な不等式を道具として知っておく。error bound.
  • しましま/IBIS2013 - 機械学習の「朱鷺の杜Wiki」

    第16回 情報論的学習理論ワークショップ (IBIS2013)† このページはしましまが IBIS2013 に参加してとったメモです.私の主観や勘違いが含まれていたり,私が全く分かってなかったりしていますので,その点を注意してご覧ください.誤りがあれば,指摘してください. チュートリアル1:機械学習概要† 村田 昇(早稲田大学) 学習とは『賢くなる手続き』 スパムメール,Googleの検索,推薦システム,Watson将棋,徴税システム 計算論的学習理論 人工知能とアルゴリズムの初期研究:決定的 → 確率的・非決定的な考え方の登場 80年代の Valiant 十分な確率で正解に達すればよい → PAC学習 統計的学習理論 確率的近似法(統計的探索に確率探索の手法を導入)→ 学習系の平均挙動の統計的解析 → VC次元の理論と発展 学習問題の枠組み 教師あり(回帰,識別)・教師なし(クラスタリ

  • 転移学習 - 機械学習の「朱鷺の杜Wiki」

    転移学習 (transfer learning) / 帰納転移 (inductive transfer)† 転移学習 (transfer learning) の他,帰納転移 (inductive transfer),ドメイン適応 (domain adaptation),マルチタスク学習 (multitask learning),knowledge transfer, learning to learn, lifetime learning などの呼び名もある. 形式的ではないが NIPS2005 Workshop — inductive transfer: 10 years later で示されている次の定義が広く受け入れられると思う. the problem of retaining and applying the knowledge learned in one or more ta

    mooz
    mooz 2013/09/09
    transfer learning
  • Meeting - 機械学習の「朱鷺の杜Wiki」

    学会・研究会† 情報論的学習理論や機械学習に関連した会議や会議報告についてまとめましょう. ID は ibis でパスワードは VC 次元の V のフルスペルです(頭だけ大文字) Cのフルスペルだと誰も書けません -- いば ↑

    mooz
    mooz 2013/05/13
    国際会議メタ情報
  • アンサンブル学習 - 機械学習の「朱鷺の杜Wiki」

    アンサンブル学習 (ensemble learning)† ランダムに解を出力する予測器,すなわち,予測精度が最悪の予測器よりは,高い精度で予測できる弱学習器 (weak learner)を組み合わせて高精度の学習器を構成する方法. バギングやブースティングといった手法が著名. 初期の研究ではクラス分類だけだったが,回帰やクラスタリングにも適用されている. ↑ 文献1でのバイアス-バリアンスの観点からの議論.† まず,クラス分類における不偏性とバイアス-バリアンスを次のように定義*1. 訓練集合 \(T\) から学習した分類器 \(C(X;T)\) の,入出力対 \(X,Y\) の分布に対する誤差は \[PE(C(X;T))=\Pr_{X,Y}[C(X;T)\ne Y]\] 入力に対する真のクラス条件付き分布 \(\Pr[Y|X]\) を用いた最適なベイズ分類器を \(C^\ast(X)\

    mooz
    mooz 2012/05/27
    ensemble learning を bias-variance の点から解説
  • バイアス-バリアンス - 機械学習の「朱鷺の杜Wiki」

    バイアス-バリアンス (bias-variance)† モデル \(Y=f(X)+\varepsilon\) から訓練サンプル集合 \(T\) が生成されたとする. ただし,\(\varepsilon\) は正規分布 \(N(0,\sigma^2)\) に従う真のエラー項. この訓練サンプル集合から \(\hat{f}(x)\) を推定したとする. このとき,点 \(x\) の汎化誤差を最小2乗で測ると \[\mathrm{E}[(Y-\hat{f}(x))^2|X=x]=\sigma^2+\Bigl(\mathrm{E}_T[\hat{f}(x)]-f(x)\Bigr)^2+{\mathrm{E}_T}\bigl[(\hat{f}(x)-\mathrm{E}_T[\hat{f}(x)])^2\bigr]\] \[=\sigma^2+{\mathrm{Bias}}^2[\hat{f}(x)

    mooz
    mooz 2012/05/25
    bias, variance
  • 潜在変数 - 機械学習の「朱鷺の杜Wiki」

    2023-12-04 python 2023-11-22 PRML/errata2 2023-11-21 PRML/errata1 2023-11-01 しましま/IBIS2023 2023-10-29 IBIS 2023-06-16 人工知能学会全国大会 2023-06-11 しましま/人工知能学会全国大会2023 2023-03-28 Book 2022-11-27 朱鷺の社 2022-11-24 しましま/IBIS2022 2022-07-08 AutoTicketLinkName 2022-06-17 しましま/人工知能学会全国大会2022 2021-11-13 しましま/IBIS2021 2021-10-29 回帰分析 2021-06-11 しましま/人工知能学会全国大会2021 2021-03-07 MenuBar 2021-02-15 python/numpy 2020-12

    mooz
    mooz 2011/11/01
    latent variable
  • BIRCH - 機械学習の「朱鷺の杜Wiki」

    Balanced Iterative Reducing and Clustering using Hierarchies (BIRCH)† 限定された主記憶で大規模データをクラスタリングする手法.データの走査は1回だけなので,データストリームの処理にも使える.データを圧縮して保持する部分はデータスカッシングとも見なせる. ↑ CF木 (Clustering Feature tree)† CF木は,BIRCHで使うデータの圧縮表現.基的には,直径がしきい値以内のデータを部分クラスタにまとめる.この部分クラスタ内のデータは,以後の大域クラスタリングではひとまとまりにして扱い,同じ最終クラスタに分類される. この部分クラスタはCF(Clustering Feature)によってあらわす.これは,部分クラスタ中のデータ数,総和,2乗和の三つ組.この部分クラスタを木構造で格納したものがCF木.新た

    mooz
    mooz 2011/06/27
    "限定された主記憶で大規模データをクラスタリングする手法.データの走査は1回だけなので,データストリームの処理にも使える."
  • 生成モデル - 機械学習の「朱鷺の杜Wiki」

    生成モデル (generative model) / 識別モデル (discriminative model)† クラス分類を解くための手法は識別モデルと生成モデルに分けられる. データとクラスの確率変数をそれぞれ \(X\) と\(C\) で表す. パラメータは \(\theta=(\theta_1,\theta_2)\). 生成モデル (generative model) \(X\) と\(C\) の結合確率をモデル化: \[\Pr[X,C|\theta]=\Pr[X|C,\theta_1]\Pr[C|\theta_2]\] パラメータはデータ集合とパラメータの同時確率を最大化するように学習: \[\Pr[\{x_i,c_i\}_i^N,\theta]=\Pr[\theta]\prod_i^N\Pr[x_i,c_i|\theta]=\Pr[\theta]\prod_i^N\Pr[x_i

    mooz
    mooz 2011/03/05
    生成モデルはデータとクラスの同時確率、識別モデルはクラス given データの条件付き確率
  • 敵対的学習 - 機械学習の「朱鷺の杜Wiki」

    敵対的学習 (adversarial learning)† スパムメールの検出や,アクセスログを利用したネットワークからの侵入検出に機械学習技術が利用されている.すると,送信や侵入を企てる敵対者 (adversary) は,意図的に入力パターンを変更して,検出を回避しようとする.こうした,敵対的な環境下での利用を想定した機械学習の研究は敵対的学習 (adversarial learning) や 敵対的環境下での機械学習 (machine learning in adversarial environments) と呼ばれる. 敵対者の攻撃を検出する識別器の頑健性の評価や強化する,敵対者側の立場から識別器を回避する,そして防御側と識別器の間のゲーム理論の立場からの均衡の考察などの研究がある. ここでは,攻撃側の攻撃可能性についての文献1の研究を紹介する. スパムフィルタなどの分類器があり,

  • 判別分析 - 機械学習の「朱鷺の杜Wiki」

    判別分析 (discriminant analysis)† 広義にはクラス分類手法一般をさすが,特に線形判別分析 (Fisher判別分析; linear discriminant analysis) のことを示す場合が多い. これは,クラスと属性ベクトルの対の形式のデータが与えられたとき,クラス間の分散を最大化するような教師ありの次元削減法. データは \(d\)次元のベクトル \(x\) で表される. クラス数 \(C\ge2\),総データ数 \(n\) のデータ集合 \(\mathcal{X}=\{x\}\),データ全体の平均値は \(\bar{x}\). クラス \(i\) のデータ集合を \(\mathcal{X}_i\),そのデータ数を \(n_i\),そのデータの平均を \(\bar{x}_i\). このとき,群内分散 \(W\) と,群間分散 \(B\) は次式. \[W=\

    mooz
    mooz 2009/01/30
  • 1