
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
継続事前学習の内容を忘却せずにSupervised fine tuningしたい - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
継続事前学習の内容を忘却せずにSupervised fine tuningしたい - Qiita
1. 意図と背景 大規模言語モデル2024講座(東京大学、松尾・岩澤研)に参加しました。はい。講義はとっ... 1. 意図と背景 大規模言語モデル2024講座(東京大学、松尾・岩澤研)に参加しました。はい。講義はとっくに終わりました。w が、ずっと課題を抱えていて、まだまだ取り組んでます。 動機 元々の動機が、大規模言語モデルの最終課題にも合致しているんですが、比較的小型のモデルに新しく知識を埋め込み、その知識を使って出力してくれるモデルを作りたいからです。 製造現場や機密事項などは、オプトアウトしたAPIにもまだまだ入れられないというのが実情だし、これはなかなか変わらない。また、通信環境がないところでも使いたい。 特に製造現場は想定外の動きになると人が怪我するかもしれないので、使うとしてもローカルモデルになってしまう。そのためには知識を埋め込んだ上で、Q&Aしてくれたり、評価をしてくれるモデルが必要なんです。 課題とモチベーション 講義を受けても解決しない課題が僕には残ってしまいました。それが、忘