サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
iPhone 17
qiita.com/momo10
はじめに 統計的推論や機械学習において、情報幾何は確率分布の空間をリーマン幾何の枠組みで扱う強力な手法です。本記事では、1次元正規分布を例に、以下の概念をPython(PyTorch)で実装しながら解説します。 フィッシャー情報行列 三次形式($T_{i,j,k}$) クリストフェル記号(Levi-Civita接続) $α$-接続のクリストフェル記号 リーマン曲率テンソル、スカラー曲率 これらを用いることで、確率分布の幾何構造をより深く理解することができます。 1. フィッシャー情報行列の計算 フィッシャー情報行列は、統計モデルにおける情報量の尺度であり、統計推定の精度を評価する上で重要な役割を果たします。確率分布 $p(x | \theta)$ の対数尤度関数 $\log p(x | \theta)$ に対して、
はじめに この記事は、鈴木大慈先生の論文[1]の付録部分についての備忘録です。 Transformerをベースとした生成AIに多額のお金が投資されてます。また、Transformerをベースとした日本語に対応したLLMがリリースされるたびにニュースで取り上げられるなど注目されています。なぜTransformerがすごいのか?という根拠を、数理工学的に解説した論文[1]は、社会的に価値があると思い、備忘録を公開します。 Transformerは優れたモデルか? 論文[1]では、「Transformerは、はたして優れたモデルなのか?」を解析しています。 結論から言うと、 無限次元入力のsequence-to-sequence関数に対し、Transformerは近似・推論能力をもつ Attentionは、入力列に応じて重要なトークンを選択することができる C. Auxiliary Lemmas
はじめに 世間では生成AIのニュースで賑やかです。生成AIには、①GAN、②VAE、③Diffusion modelなどがあります。拡散モデル(Diffusion model)を知らなかったので調査しました。本記事では、③Diffusion modelについて簡単に紹介します。 What are Diffusion Models? GANやVAEとなにがちがうの? 拡散モデルは、データからノイズ(潜在変数)への変換の逆変換と考えるところがGANやVAEと違います。拡散モデルでは、データに徐々にノイズを付加する過程(拡散過程)と、徐々にノイズを除去する過程(逆拡散過程)を考えます。拡散過程を仮定したことで、Encoderのパラメータの学習が不要になりました。 拡散モデルの長所と短所 長所 2乗誤差最小化であるため最適化がシンプルである 多様なデータの生成に強い 理論的な背景が明確 短所 生成
このページを最初にブックマークしてみませんか?
『@momo10のマイページ - Qiita』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く