ELYZAは大規模言語モデル「ELYZA LLM for JP」シリーズの最新モデルとして、Metaの「Llama 3」をベースとした700億パラメーターの「Llama-3-ELYZA-JP-70B」と80億パラメーターの「Llama-3-ELYZA-JP-8B」を開発し、性能を公開した。 【もっと写真を見る】 ELYZAは6月26日、同社が提供する大規模言語モデル「ELYZA LLM for JP」シリーズの最新モデルとして、Metaの「Llama 3」をベースとした700億パラメーターの「Llama-3-ELYZA-JP-70B」と80億パラメーターの「Llama-3-ELYZA-JP-8B」を開発し、性能を公開した。 Llama-3-ELYZA-JP-70Bは、Llama-3-70Bをベースに追加の学習(日本語追加事前学習・指示学習)を実施して開発したモデル。元のLlama-3-70
![ELYZA、「GPT-4」を上回る日本語性能のLLMを開発(アスキー) - Yahoo!ニュース](https://cdn-ak-scissors.b.st-hatena.com/image/square/7c2ee3a2d2b856cc9ddf637e04fb56077e6a12d4/height=288;version=1;width=512/https%3A%2F%2Fnewsatcl-pctr.c.yimg.jp%2Ft%2Famd-img%2F20240702-00000005-ascii-000-1-view.jpg%3Fexp%3D10800)