![](https://cdn-ak-scissors.b.st-hatena.com/image/square/14cc9cf47014bb4a6f3d2f775614f22baff80284/height=288;version=1;width=512/https%3A%2F%2Fimage.itmedia.co.jp%2Fnews%2Farticles%2F2306%2F19%2Fcover_news163.jpg)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
機械に話しかけて設定できる時代が来る? なぜ“小規模”なLLMが求められるのか
小規模LLMの利点 LLMにおいて、学習パラメータ数は性能に直結する。パラメータ数を上げれば性能が向上す... 小規模LLMの利点 LLMにおいて、学習パラメータ数は性能に直結する。パラメータ数を上げれば性能が向上するというのは「最近においては研究者の間でのコンセンサス」(企業向けのAIソリューション開発を行うLaboro.AIの藤原弘将COO兼CTO)だ。 一方で、注目を集めつつあるのがLLaMAのような小規模なモデルだ。 LLaMAはパラメータ数の異なる4つのサイズ(7B、13B、33B、65B)で提供されている。これは175B規模のGPT-3や、それを遥かに上回るといわれるGPT-4に比べると非常に小さいが、13BサイズでもGPT-3よりも性能が上だという。 モデルを大規模化すれば性能が上がることが分かっていても、小規模でも高性能なモデルの開発が注目されている理由の1つは、ビッグテックによるLLM独占への警戒感だ。大規模モデルの学習は規模が大きくなるほど必要な演算量も増える。「例えばAWSを使
2023/06/20 リンク