エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【Swallow on mistral】日本語最強の性能を叩き出す70億パラメーター国産LLMを使ってみた | WEEL
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【Swallow on mistral】日本語最強の性能を叩き出す70億パラメーター国産LLMを使ってみた | WEEL
WEELメディア事業部LLMリサーチャーの中田です。 3月11日、日本語特化型の大規模言語モデル「Swallow on... WEELメディア事業部LLMリサーチャーの中田です。 3月11日、日本語特化型の大規模言語モデル「Swallow on mistral(Swallow-MS 7B, Swallow-MX 8x7B)」を、東京工業大学の岡崎研究室と横田研究室、産業技術総合研究所の研究チームが公開しました。 このモデルは、「Mistral 7B」と「Mixtral 8x7B」の日本語能力が強化されたものなんです! Xでの投稿のいいね数は、国内だけですでに300を超えており、注目されていることが分かります。 📢 大規模言語モデルSwallow-MS 7BとSwallow-MX 8x7Bを公開しました。東京工業大学の岡崎研究室と横田研究室、産業技術総合研究所の研究チームでMistral 7BとMixtral 8x7Bの日本語能力を引き上げました。Swallow-MS 7Bはオープンな7BのLLMの中で日本語最高