サクサク読めて、アプリ限定の機能も多数!
“知識の大部分が低い層にあることを示唆する。学習手法やモデル設計の参考にも”
misshiki のブックマーク 2024/03/28 14:36
Daisuke Okanohara / 岡野原 大輔 on X: "学習済みのLLMから、層毎に入力と出力間のcos類似度が大きい層(変化が少ない層)を間引いても精度は落ちない。特に最後の層だけ除いて深い側の層を2~4割間引いても質問応答などの精度は変わらず、知識の大部分が低い層にあることを示唆する。学習手法やモデル設計の参考にも https://t.co/J7c75QyFb4"[自然言語処理]“知識の大部分が低い層にあることを示唆する。学習手法やモデル設計の参考にも”2024/03/28 14:36
このブックマークにはスターがありません。 最初のスターをつけてみよう!
twitter.com2024/03/28
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /
“知識の大部分が低い層にあることを示唆する。学習手法やモデル設計の参考にも”
misshiki のブックマーク 2024/03/28 14:36
このブックマークにはスターがありません。
最初のスターをつけてみよう!
Daisuke Okanohara / 岡野原 大輔 on X: "学習済みのLLMから、層毎に入力と出力間のcos類似度が大きい層(変化が少ない層)を間引いても精度は落ちない。特に最後の層だけ除いて深い側の層を2~4割間引いても質問応答などの精度は変わらず、知識の大部分が低い層にあることを示唆する。学習手法やモデル設計の参考にも https://t.co/J7c75QyFb4"
twitter.com2024/03/28
1 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /