米NVIDIAは3月18日(現地時間)、高度なデータセンターなどで使われるGPUの新アーキテクチャ「Blackwell」(ブラックウェル)を発表した。同技術を採用する製品は、コストとエネルギー消費を従来製品の25分の1に抑えながら、数兆規模のパラメータを持つ大規模言語モデル(LLM)による生成AIを構築、実行できるようになるという。搭載製品は2024年後半から市場に投入される予定だ。 Blackwellは、2022年に同社がリリースした「Hopper」(ホッパー)の後継に位置付けられる新アーキテクチャだ。2つのGPUダイ(半導体のチップ本体)を10TB/秒の超高速なインタフェース「NV-HBI」で接続し、1つのGPUとして振る舞う仕組みを採用している。トランジスタの数は2080億個に上る。 さらに4bit浮動小数点AI推論を実現する第2世代の「Transformer Engine」(AIト