“知識の大部分が低い層にあることを示唆する。学習手法やモデル設計の参考にも”

misshikimisshiki のブックマーク 2024/03/28 14:36

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Daisuke Okanohara / 岡野原 大輔 on X: "学習済みのLLMから、層毎に入力と出力間のcos類似度が大きい層(変化が少ない層)を間引いても精度は落ちない。特に最後の層だけ除いて深い側の層を2~4割間引いても質問応答などの精度は変わらず、知識の大部分が低い層にあることを示唆する。学習手法やモデル設計の参考にも https://t.co/J7c75QyFb4"

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう