MITの研究者が、従来よりも3倍以上高速に計算処理でき消費電力を94%も削減できるニューラルネットワーク用のチップを開発しました。 Neural networks everywhere | MIT News http://news.mit.edu/2018/chip-neural-networks-battery-powered-devices-0214 一般的なプロセッサモデルでは、チップ内のプロセッサとメモリが分かれており演算を行う時にメモリとCPU間でデータの受け渡しが行われます。そのため、「大量の計算処理が行われる機械学習アルゴリズムでは、データ転送がエネルギー消費の支配的な要因になっています」とMITコンピューターサイエンスの学生アビシェック・ビスワスさんは話します。そこで、機械学習アルゴリズムの計算を「ドットプロダクト」と呼ばれる特定の操作に単純化してメモリ内に実装することで、