エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【論文紹介】LLMに何度も解答を生成させて正答率を上げる反復サンプリング ~ Large Language Monkeys
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【論文紹介】LLMに何度も解答を生成させて正答率を上げる反復サンプリング ~ Large Language Monkeys
【論文紹介】LLMに何度も解答を生成させて正答率を上げる反復サンプリング ~ Large Language Monkeys こ... 【論文紹介】LLMに何度も解答を生成させて正答率を上げる反復サンプリング ~ Large Language Monkeys こんにちは。ZENKIGENデータサイエンスチームの栗原です。 OpenAIから新たなモデルOpenAI o1が発表され話題になっています。 モデル構築における技術や手法の詳細は明らかにされていませんが、強化学習やChain-of-Thought、推論時の計算量によるスケーリングといったトピックが関連していると思われています。 今回はこれらトピックの中から、推論計算量のスケーリングに関する研究として、『Large Language Monkeys: Scaling Inference Compute with Repeated Sampling』を紹介したいと思います。 概要 これまで言語モデルは学習の計算量を大きくすることで性能を向上させてきましたが、本研究は推論(

