タグ

2024年1月9日のブックマーク (3件)

  • モデルパラメータの算術 - ジョイジョイジョイ

    深層モデルのパラメータを一列に並べてベクトルにします。このベクトルは大規模なモデルであれば何十億次元にもなります。一見、意味のない数値の羅列のようですが、このベクトルはベクトルとして深い意味があることが分かってきています。例えば、 と を異なるパラメータベクトルとすると、 や をパラメータとして持つモデルはちゃんと機能します。稿では、このようなモデルパラメータの算術を用いた手法とその背後にある理論について解説します。 追記: 拙著『深層ニューラルネットワークの高速化』にて稿の内容を大幅に増補しました。稿に興味を持った方はこちらも参照いただけると嬉しいです。 深層ニューラルネットワークの高速化 ML Systems 作者:佐藤 竜馬技術評論社Amazon 追記ここまで 目次 目次 モデルスープ タスクベクトル モデルパラメータとニューラルタンジェントカーネル おわりに モデルスープ

    モデルパラメータの算術 - ジョイジョイジョイ
    stealthinu
    stealthinu 2024/01/09
    すごく面白い。ファインチューニングモデルは重みの足し算して平均するとアンサンブルしたのと同じ効果があるとか、タスクベクトルの足し算引き算できるとか、いやー、これは面白いね。
  • Model soups: averaging weights of multiple fine-tuned models improves accuracy without increasing inference time

    The conventional recipe for maximizing model accuracy is to (1) train multiple models with various hyperparameters and (2) pick the individual model which performs best on a held-out validation set, discarding the remainder. In this paper, we revisit the second step of this procedure in the context of fine-tuning large pre-trained models, where fine-tuned models often appear to lie in a single low

    stealthinu
    stealthinu 2024/01/09
    モデルの重みを平均するだけで精度上げたりできるという論文… こんなの論文ICML2022で出てたのか。これがSDとかで重み足して平均してもちゃんと動くののバックボーンになってんのね。
  • Pythonライブラリ (超解像|画質向上):DiffBIR|KIYO

    1.緒言 低画質の画像を高画質に変える技術である”超解像”として「DiffBIR」を紹介します。結論として、GPUでの実装まではできなかったため、CPUで時間かけても良い人向けとなります。 1-1.DiffBIRの概要 下図の通り、ぼやけた画像を鮮明にしたりできます。他の技術との優位性比較をしており、見たところ高性能のように見えます。 (a) Visual comparison of blind image super-resolution (BSR) methods on real-world low-quality images.(b) Visual comparison of blind face restoration (BFR) methods on real-world low-quality face images.1-2.DiffBIRのアーキテクチャ DiffBIRのアー

    Pythonライブラリ (超解像|画質向上):DiffBIR|KIYO
    stealthinu
    stealthinu 2024/01/09
    Windows環境だとtritonが素直に入らないため、huggingfaceのとこからwhlを直接指定して入れるとはいるらしい。