国産LLMがGPT-4oを超えた。 国立情報学研究所(NII)が、国産大規模言語モデル「LLM-jp-4」をオープンソースライセンスで公開しました。フルスクラッチ学習で構築された国産モデルです。しかも一部ベンチマークではGPT-4oやQwen3-8Bを上回っています。 公開されたのは約86億パラメータの「LLM-jp-4 8Bモデル」と、約320億パラメータのMoEモデル「LLM-jp-4 32B-A3Bモデル」の2つです。 日本語MT-Benchのスコアは8Bが7.54、32B-A3Bが7.82。これはGPT-4oの7.29、Qwen3-8Bの7.14を上回っている数値です。なお英語のMT-Benchでも8Bが7.79、32B-A3Bが7.86で、GPT-4oの7.69を上回りました。 学習に使われたのは、事前学習約10.5兆トークンと中間学習約1.2兆トークンを合わせた約11.7兆トー