エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Mixtral-8x7Bのファインチューニング済モデルをいくつか試してみる on Databricks - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Mixtral-8x7Bのファインチューニング済モデルをいくつか試してみる on Databricks - Qiita
導入 Mixtral-8x7Bが性能的にも面白いので、HuggingfaceにあるファインチューニングモデルをDatabricks... 導入 Mixtral-8x7Bが性能的にも面白いので、HuggingfaceにあるファインチューニングモデルをDatabricks上でいくつか試してみます。 以前のMixtralの記事は↓から。 今回は、以下の二つを試してみます。 OpenBuddy Mixtral 8x7B v15.2 OpenBuddy社が公開しているMixtral-8x7BをファインチューニングしたLLMです。 OpenBuddyは以前から様々なモデルの多言語ファインチューニングモデルを出しており、日本語もまあまあ使える印象があります。 OpenBuddy Mixtralは既にv15.4が出ているようなのですが、事前にダウンロードしていたのがv15.2だったので過去バージョンとなります。 Dolphin-2.6-Mixtral-8x7B Cognitive Computationsが公開しているMixtral-8x7