オラクルはNvidia H200 GPUを搭載した「Oracle Cloud Infrastructure (OCI) Supercluster」を一般提供開始した。このスーパークラスターは最大65,536個のGPUをスケール可能であり、FP8性能のピークで260エクサフロップスを実現する。クラウドで利用可能な最大規模のAIスーパーコンピューターであると同社は主張している。 新たに導入されたカスタム設計のクラスターネットワークは、最大400GbpsのGPU間通信を可能とし、AIモデルの推論性能を大幅に向上。大規模言語モデル(LLM)の性能は最大1.9倍の向上が期待されている。価格は従来のH100インスタンスと同じくGPU1時間あたり10ドルで提供され、コスト効率も維持している。 さらに、オラクルは2025年上半期を目処に、次世代GPU「Nvidia Blackwell」を最大131,072

