Tiny four-bit computers are now all you need to train AI 4ビットで深層学習、 IBMが「小さなAI」考案 最近の人工知能(AI)の研究で主流となっている大規模モデルの訓練では、膨大な計算機リソースや電力が必要となる。IBMは、AIモデルのパフォーマンスを大きく落とすことなく、4ビットでAIを訓練できる方法を発表した。 by Karen Hao2020.12.17 144 45 9 25 深層学習(ディープラーニング)は、エネルギー効率が悪く、大量のエネルギーを消費する。莫大な量のデータと豊富な計算力のリソースを必要とし、電力消費が爆発的に増える。ここ数年間、全体的な研究動向がこの問題を悪化させてきた。数十億個のデータを使って数日間訓練する巨大な規模のモデルが流行しており、この傾向は当分の間、廃れることがないだろう。 新しい方向性を急