生成AI(人工知能)ブームが過熱する現在、大規模言語モデル(LLM)の開発に必要なAI用GPU(画像処理半導体)インフラの確保が難しくなっている。特にパブリッククラウドを利用するユーザーがLLM開発に適したGPUサーバーのインスタンスを確保できない状態が続いており、LLMを開発する国内企業が悲鳴をあげている。このままGPUインフラを十分に確保できなければ、国内企業による独自LLMの開発が想定以上に遅れる恐れがある。 「LLMの開発に使いたい米NVIDIA(エヌビディア)のAI用GPU『NVIDIA A100』を搭載するGPUサーバーは、大手パブリッククラウドではほぼ確保できない状態だ。先週(2023年8月最終週)は1台も確保できなかった」――。そう語るのは、AI開発のスタートアップであるストックマークのResearch Divisionを率いる近江崇宏執行役員だ。 Amazon Web S