記事へのコメント3

    • 注目コメント
    • 新着コメント
    mkusaka
    Composerのself-summarization学習でコンテキスト超えの長期タスクに対応し、CursorBenchで誤差を50%削減する。

    その他
    Kesin
    compactionの改善をプロンプトではなくてモデル自体に組み込んでしまうのはコーディング専門モデルならではなのかな。composerモデルの次バージョンの開発が進んでいるらしい

    その他
    misshiki
    Composerは自己要約を学習し、長いタスクでも重要情報を保持。圧縮誤差50%削減・トークン5分の1で、170ターンの難問も解決。長期推論の新アプローチ。

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    Training Composer for longer horizons · Cursor

    We train Composer for long-horizon tasks through a reinforcement learning process called self-sum...

    ブックマークしたユーザー

    • toshikish2026/03/21 toshikish
    • mkusaka2026/03/21 mkusaka
    • Kesin2026/03/19 Kesin
    • misshiki2026/03/18 misshiki
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む