Alibaba Cloudは2025年1月28日(中国時間)、「Mixture of Expert」(MoE:混合エキスパート)アーキテクチャを採用した大規模言語モデル(LLM)「Qwen2.5-Max」を発表し、同モデルのAPIをAlibaba Cloudで提供開始した。 Qwen2.5-Maxは、20兆以上のトークンで事前トレーニングされ、教師ありファインチューニング(SFT)と人間のフィードバックによる強化学習(RLHF:Reinforcement Learning from Human Feedback)で事後トレーニングされている。 DeepSeek V3やGPT-4oを超えるパフォーマンスをうたう 関連記事 中国の新興AI企業の高性能オープンソースLLM「DeepSeek-R1」登場 注目の理由は? 中国のAIスタートアップであるDeepSeekは、大規模言語モデル「DeepS