エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Swallow on mistral – TokyoTech-LLM
Swallow on mistral Mistral 7BおよびMixtral 8x7Bの日本語能力を強化した大規模言語モデル (Swallow-MS... Swallow on mistral Mistral 7BおよびMixtral 8x7Bの日本語能力を強化した大規模言語モデル (Swallow-MS 7B, Swallow-MX 8x7B) です。Apache 2.0の寛容なライセンスでモデルのパラメータ(重み)を公開していますので、研究やビジネスに活用できます。 View on HuggingFace 大規模言語モデルSwallow-MS 7BおよびSwallow-MX 8x7Bは、東京工業大学情報理工学院の岡崎研究室と横田研究室、国立研究開発法人産業技術総合研究所の研究チームで開発された大規模言語モデルです。英語の言語理解や対話で高い能力を持つ大規模言語モデルMistral 7BおよびMixtral 8x7Bの日本語能力を強化するため、研究チームは日本語の大規模な言語データを用いて継続事前学習を行いました。研究チームで実施した性能評
2024/03/11 リンク