大規模言語モデル(LLM)の開発に取り組む中国の人工知能(AI)ユニコーン「MiniMax」は4月17日、1兆パラメータ規模のMoE(Mixture of Experts)モデル「abab 6.5」シリーズをリリースした。従来のモデルと比べ、複雑なテキストを処理する能力が大幅に高まっている。 abab 6.5シリーズは、「abab 6.5」と「abab 6.5s」の2種類からなる。abab 6.5は、1兆パラメータで20万トークンのテキストを処理できる。abab 6.5sはより効率的な処理が可能で、約3万字の長文テキストを1秒以内で処理できるようになる。 大ヒットSF小説「三体」80万字をわずか数秒で要約!中国の大規模言語モデル、超長文処理の時代へ 同社はパートナー企業と協力し、abab 6.5をカスタマーサービスやライティング、翻訳などに活用する方法を模索し、より便利で効率的なサービスを
![中国AIユニコーン「MiniMax」、1秒で3万字を処理するMoEモデル「abab 6.5」リリース | 36Kr Japan | 最大級の中国テック・スタートアップ専門メディア](https://cdn-ak-scissors.b.st-hatena.com/image/square/97a5d4a1fc80565f1303a4d6b08998c7ec1ff3d2/height=288;version=1;width=512/https%3A%2F%2F36krjp-1316517779.cos.ap-tokyo.myqcloud.com%2Fuploads%2F2024%2F04%2F20240426144924b15e17b8-2680-450f-a6cd-4c9faea5b9bd726.webp)