第19回助教の会は情報基盤センターで助教をされています佐藤一誠さんに話をしていただきました.タイトルは「“基礎”からのBayesian Nonparametrics-点過程と機械学習の数理-」ということで,ランダム測度からはじまり機械学習で広く使われている様々な確率モデルとの関係を概観していただきました.今回の話のキモは「フビニの定理」です.今日,自然言語処理や機械学習の分野では「ノンパラメトリック」なベイズモデルが広く使われています.ここでいうノンパラメトリックとは特定のパラメトリックモデルを仮定しない広いクラス(無限次元)のモデルです.ノンパラメトリックなモデルを考えると数学的に難しい部分が出てきますが,フビニの定理を通して眺めるとすっきりするという点は重要であったと思います. まずはその雰囲気を概観してみましょう.普通のパラメトリックモデルでのベイズモデリングでは次の「ベイズの定理」