生成AI(人工知能)に欠かせない高性能のGPU(画像処理半導体)を搭載したサーバーを大量に運用できる「AIデータセンター」は、日本にどれだけ存在するのか。日経クロステックが国内にある49社のデータセンター事業者を対象に調査したところ、18社による計画中を含む32施設があることが分かった。 今回、日経クロステックがデータセンター事業者に質問したのは、大規模言語モデル(LLM)のトレーニング(訓練)や推論に使う高性能GPUサーバーが稼働できるような施設と、その詳細だ。現時点では国内に18社が運営する26施設があり、今後さらに6施設が増える計画だ。 消費電力10kW超えのGPUサーバーを1ラックで複数台稼働 LLMのトレーニングには、米NVIDIA(エヌビディア)のAI用GPUである「H100」や「H200」を8個搭載する高性能GPUサーバーが向いているとされる。NVIDIA自身がH100を8個