フィードバックを送信 コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 bfloat16 を使用してモデルのパフォーマンスを向上させる デフォルトでは、TPU は bfloat16 値で行列乗算演算を実行し、IEEE float32 値で累積を実行します。精度を落とした浮動小数点数を使用すると、精度を失わずに収束までの時間を短縮できます。 bfloat16 と float32 のダイナミック レンジは同等です。ただし、bfloat16 はメモリ容量の半分を使用します。bfloat16 のパフォーマンスの詳細については、ディープ ラーニング トレーニングのための BFLOAT16 の研究をご覧ください。 bfloat16 を明示的に使用する TPU での自動形式変換により、数値の精度について考慮する必要がなくなりますが、値を明示的に bfloat16 にキャス