エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較|sharp_engineer
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
LLMキャラ付けファインチューニング:プロンプトエンジニアリングとの比較|sharp_engineer
研究開発本部 海老原樹 はじめにエッジデバイスで動作するLLM(Large Language Model)に関する、シリ... 研究開発本部 海老原樹 はじめにエッジデバイスで動作するLLM(Large Language Model)に関する、シリーズ記事の第二回目は、LLMのファインチューニングについてです。ChatGPTやLLMを触ったことのある皆さんの中には、もっと賢くしたい、自分好みキャラ付けしたいと思った方は多いのではないでしょうか。そんな、「LLMの出力を賢くしたり、キャラ付けする」方法の一つに、ファインチューニングがあります。 今回は実際にローカル環境でLLMのファインチューニングを通してLLMの語尾を変える簡単なキャラ付けを行います。同じくLLMの出力をカスタマイズする方法であるプロンプトエンジニアリングとの比較や学習するデータ量を変える実験を通して、ファインチューニングの効果を調査します。 自分でLLMをファインチューニングしてみたいと思っている方の参考になれば幸いです。 忙しい人のためにオープン

