記事へのコメント1

    • 注目コメント
    • 新着コメント
    sh19910711
    "継続事前学習後のモデルはQwen2.5オリジナルのChatVectorを使っていることで中国語混ざりが少し増えて / PostTraining後のモデルは最終的に日本語の学習をしているため、これにより更に言語混ざりが起きづらく"

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    LLMの他言語混ざり問題の評価と日本語追加学習の効果について - ABEJA Tech Blog

    ABEJAでデータサイエンティストをしている服部です。 弊社は、経済産業省とNEDOが実施する、国内の...

    ブックマークしたユーザー

    • Gln2025/05/31 Gln
    • sh199107112025/05/30 sh19910711
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む