サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
TGS2024
bayesnet.sakura.ne.jp
2020年度春夏学期月曜3限「統計解析」(学部)「統計解析II」(大学院)@基礎工B104 は、機械学習のためのカーネルに関しての講義を行います。今回も単元ごとの復習ビデオを提供する他、書籍出版(機械学習の数理100問シリーズ)の準備として、ビデオ、問題、解説を逐次公開していきます。フィードバック情報をいただき、書籍に反映していければと考えています。 正定値カーネルの理論多変量解析への応用サポートベクトルマシンへの応用ヒルベルト空間再生核ヒルベルト空間リッジ回帰、平滑化スプライン、加法モデルへの応用関数の複雑さと汎化の理論、ラデマッハ複雑度HSIC(1) 平均の概念の導入HSIC(2) 独立性検定グラフィカルモデルの学習への応用ガウス過程(1) 定義と性質ガウス過程(2) ガウス過程の計算とスパース近似ガウス過程の応用ベイズ深層学習 参考図書 赤穂昭太郎: カーネル多変量解析 (2008)
機械学習の数理100問の読者ページ(コード、ビデオ、質問、正誤表)は、下記に移転しました。 日本語版: https://bayesnet.org/books_jp (共立出版) 英語版: https://bayesnet.org/books (Springer) また、facebook ページに登録された方には、お得情報をお伝えしています。
機械学習の数理100問の改訂版 (2019年2月24日)。 2018年度の講義も残りわずかになった。 私が着任した昨年度から、基礎工学部情報科学科数理科学コース3年「計算数理B」で、機械学習の数理に関する講義を行っている。その中で、計算数理B100問 を学生に解かせている。 線形回帰 ロジスティック回帰と判別分析 クロスバリデーションとブートストラップ 情報量基準 スパース推定 非線形 決定木 サポートベクトルマシン 教師なし学習 機械学習の演習と言うと、参加費が◯十万円の企業のセミナーなどでも、中身を理解させないで、データを流し込むだけのものが多い。そういうのをみると、頭を使わない勉強方法を奨励しているように思えてならない。この100問は、理論(簡単な数式の証明)だけでなく、R言語でかかれたソースプログラムを理解するようにしている。 データサイエンスの人材が◯万人不足すると指摘する声は多
2018年前期に、統計解析という大学院生・学部生向けの講義で、スパース推定(Lasso)を扱いました。 Trevor Hastie, Robert Tibshirani, Martin Wainwright, ”Statistical Learning with Sparsity: The Lasso and Generalizations”という書籍を2017年後期に学生と読んでみて、専門の研究者でないと読破はむずかしいと思いました。悔しかったので、解けばそのテキストの内容を理解できるような演習問題を用意し、2018年の前期の講義を迎えました。座学で講義をしても寝る学生が多い昨今で、私は自分で作成したビデオを配布し、それを見た前提で講義の時間は、演習問題を解かせました。簡単なRのプログラミング、数式の証明などです。 問題は129問にもおよびました。今回は、講義の人気が高く、大学院だけで
ちまたにある主成分分析の説明は、冗長すぎてうんざりするものが多いように思います。線形代数を勉強したことのない人に説明するので、高校低学年の知識しか使えないからだと思います。私が、担当している計算数理Bという学部3年生後期の講義で配布しているプリント(2017年12月11日)を、コピペしてみました。30分程度で主成分分析を説明しています。 以下では「’」で転置をあらわし、$X\in {\mathbb R}^{n\times p}$は平均化されている(各列の標本平均が0)と仮定する。$M\leq p$として、各$m=1,2,\cdots,M$で、$Z_m=X\phi_m$の$||Z_m||^2_2$が最大となるように$\phi_1,\phi_2,\cdots,\phi_M\in {\mathbb R}^p$を順番に決めていく。ただし、 \begin{equation} \displaystyl
一般の確率空間[latex](\omega,{\cal F},P)[/latex]で、[W:条件付確率]を定義したらどうなるか。Wikipediaでも、英語版、日本語版ともに高校でやったような特殊ケースしか掲載されていない。拙書「ベイジアンネットワーク入門」では、以下のような定義をしている。Radon-Nikodymの定理から、[latex]A\in {\cal F}, {\cal G}\subseteq {\cal F}[/latex]として、任意の[latex]G\in {\cal G}[/latex]について、[latex] P(A\cap G)=\int_G f_A(\omega)dP(\omega)[/latex]となる[latex]{\cal G}[/latex]上可測な[latex]f_A:\Omega\rightarrow [0,\infty)[/latex]が存在する。こ
コンテンツへスキップ テキスト: 鈴木譲「ベイジアンネットワーク入門」培風館 (2009年7月) ベイジアンネットワーク 第1回: はじめに(2010年4月15日) ベイジアンネットワーク 第1回: 第1章確率論の基礎 1.1 集合(2010年4月15日) ベイジアンネットワーク 第2回: 第1章確率論の基礎 1.2 確率(2010年4月22日) ベイジアンネットワーク 第2回: 第1章確率論の基礎 1.3 分布関数(2010年4月22日) ベイジアンネットワーク 第3回: 第1章確率論の基礎 1.4 Kullback-Leibler情報量 (2010年5月6日) ベイジアンネットワーク 第3回: 第2章グラフィカルモデル 2.1 条件付独立性 (2010年5月6日) ベイジアンネットワーク 第4回: 第2章グラフィカルモデル 2.2 無向グラフ (2010年5月13日) ベイジアンネット
コンテンツへスキップ テキスト: 鈴木譲「ベイジアンネットワーク入門」培風館 (2009年7月) ベイジアンネットワーク 第1回: 講義の前に(2009年10月1日) ベイジアンネットワーク 第1回: 第1章確率論の基礎 1.1 集合(2009年10月1日) ベイジアンネットワーク 第2回: 第1章確率論の基礎 1.2 確率(2009年10月15日) ベイジアンネットワーク 第2回: 第1章確率論の基礎 1.3 分布関数(2009年10月15日) ベイジアンネットワーク 第3回: 第1章確率論の基礎 1.4 Kullback-Leibler情報量(2009年10月22日) ベイジアンネットワーク 第3回: 第2章グラフィカルモデル 2.1 条件付独立性(2009年10月22日) ベイジアンネットワーク 第4回: 第2章グラフィカルモデル 2.2 無向グラフ(2009年10月29日) ベイジ
このページを最初にブックマークしてみませんか?
『bayesnet.sakura.ne.jp』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く