タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

IBISに関するsleepy_yoshiのブックマーク (2)

  • IBIS2010 に行ってきたよ(2日目) #ibis10 - 木曜不足

    第13回情報論的学習理論ワークショップ (IBIS 2010) の2日目にも、のこのこ参加。 またまた簡単なまとめ。敬称略。 発表 今日は「情報理論屋さん」と「理論統計屋さん」のお話。 わかりやすくておもしろいか、さっぱりわからなくておもしろいか、の両極端。 とりあえず合い言葉は "Slepian & Wolf"。 多端子情報源符号化の現状と課題 (葛岡) 通常1対1で定式化される符号化問題を、複数の送受信者間で考えるのが「多端子情報源符号化」。 その中でもっともシンプルな2対1の Slepian & Wolf 符号化問題(1973)を軸に、補助情報を使って通信する情報量を減らしたり、情報理論屋さんの「解けた」は何がわかった状態なのか、という話などなど。 この前、条件付き自己情報にハマっていろいろ考えたりしてたのが、理解に役立った。よかった。 圧縮センシングの理論とその展開 (和田山) 線

    IBIS2010 に行ってきたよ(2日目) #ibis10 - 木曜不足
  • IBIS2010 に行ってきたよ(1日目) #ibis10 - 木曜不足

    東大 生産技術研究所(駒場第2キャンパス)にて、第13回情報論的学習理論ワークショップ (IBIS 2010) があったので、のこのこ参加。 え? もちろん業務ですとも。 というわけで、とても簡単ながらまとめ。敬称略。 発表 反実仮想モデルを用いた統計的因果推論について(星野) 構造方程式モデルによるデータ生成過程の学習, 特に非ガウス性の利用(清水) 2つの潜在的結果変数を想定するのが「反実仮想モデル」。できるだけ仮定を減らす&余った情報は頑健性に活かす。 データ生成過程をシンプルにモデル化するのが「構造方程式モデル」。シンプルな分、仮定は強め(DAG とか線形とか)。 因果推論&非ガウスは第1回 IBISML でも少し聞いておもしろそうだなあと思いつつ、手が出てない分野。 同じ「因果推論」という言葉でも、スタンスの違いがモデルの違いに大きく現れるのとか、線形&3変数なんてさすがになんと

    IBIS2010 に行ってきたよ(1日目) #ibis10 - 木曜不足
  • 1