タグ

2022年7月15日のブックマーク (1件)

  • torch.dotとtorch.mmとtorch.mvとtorch.bmmとtorch.matmulを比較する - Qiita

    何をするか pytorchの行列積演算関数のインプット・アウトプットを確認する。 torch.dotとtorch.mmとtorch.mvとtorch.bmmとtorch.matmulを比較する。 注意:返り値を保存する引数outについては、無視します。 まとめ:dot,mm,mv,bmmは特定の次元専用、matmulはいろいろな次元を計算してくれる。 ※documentationのバージョンアップに伴いリンク修正(2020.08.17) ※torch.bmmが遅い件について更新(2020.08.17) documentation一覧 dot mm mv bmm matmul 前提 0次元の値をスカラー(scalar) 1次元の値をベクトル(vector) 2次元の値を行列(matrix) 3次元以上の値をテンソル(tensor) とします。 >>> # scalar >>> a = np.

    torch.dotとtorch.mmとtorch.mvとtorch.bmmとtorch.matmulを比較する - Qiita
    stealthinu
    stealthinu 2022/07/15
    matmulの動作わからんと思って調べたがこちらのまとめてくれてるの読んでもこりゃわかりにくいという感じ。でもこちらの気持ちを汲み取って掛け算をしてくれるという感じなのだな。