アップルの研究チームは3月14日、画像とテキストを理解し処理する能力を持つマルチモーダル大規模言語モデル「MM1」を発表した。今のところ論文のみの公開で、一般公開の時期は明かされていない。 一部ベンチマークではGPT-4Vをも凌ぐ性能を発揮 複数(30億、70億、300億)のパラメータサイズを備えるMM1は、10億以上の画像および30兆語以上のテキスト、GitHubのコード例などの多様なデータセットを用い、教師なし学習と教師あり学習を組み合わせる独自の方法で学習され、多様なタスクに対して高い精度を示すという。 各種ベンチマークの結果によると、30億および70億パラメーターのモデルはそれぞれのモデルサイズにおいて過去最高を記録。特にVQAv2(画像理解)、TextVQA(画像内のテキスト情報)、ScienceQA(科学知識)、MMBench(マルチモーダル)、MathVista(数学)などの
![アップル、高度な言語理解を持つ新型AIモデル「MM1」を発表](https://cdn-ak-scissors.b.st-hatena.com/image/square/714bc6fdbb00f65b42ccc8d5a77ace9f3407bb74/height=288;version=1;width=512/https%3A%2F%2Fascii.jp%2Fimg%2F2024%2F03%2F18%2F3703786%2Fxl%2F979162f57a419e79.png%3F20200122)