新たに FP8 に対応。E5M2(指数部5ビット、仮数部2ビット)、E4M3(指数部4ビット、仮数部3ビット)に対応。Ampere 同様、疎行列は密行列の倍の性能で動作します。 A100→H100が2年半で3倍の性能向上なので、10年で100倍のムーアの法則は2022年でも健在ですね。 GH200の対応クラウド Lambda Labs Vultr H100・H200の対応クラウド(下記全てH100およびH200の両方に対応もしくは対応予定です) EC2 p5e (H200), p5 (H100) Google ? (H200), A3 (H100) Azure ? (H200), ND H100 v5 Oracle Cloud CoreWeave Lambda Labs Vultr さくらのクラウド ConoHa VPS Google が1台に16GPU、AWS と Azure ND が1