エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ChatGPT (gpt-3.5-turbo) を専門知識のデータでファインチューニングした事例 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ChatGPT (gpt-3.5-turbo) を専門知識のデータでファインチューニングした事例 - Qiita
はじめに 2023年8月にGPT-3.5 Turboのファインチューニング機能がリリースされましたが、うまくいかなか... はじめに 2023年8月にGPT-3.5 Turboのファインチューニング機能がリリースされましたが、うまくいかなかったという記事を幾つか見かけました。 ただ、一番目の記事はファインチューニングに使ったデータ量が60件と少なく、また二番目の記事は「なぞなぞ」という自然言語処理のタスクではあまり見かけないデータを使ってファインチューニングをしています。 そこで、専門分野に関する知識を一定規模のデータ量を使ってファインチューニングするとどうするのかを試しました。 ファインチューニングに使ったデータ グロービス経営大学院が公開しているMBA用語集のデータを使いました。 これは経営学に関する専門用語を解説したもので、約1,000単語ほどが収められています。 例えば、「MECE」という単語のページでは、次のような解説文が載っています。 MECEとは、英語のMutually Exclusive Col