タグ

2017年4月26日のブックマーク (1件)

  • 学習も8ビットで、富士通研が深層学習向けに低電力の回路技術

    富士通研究所は、深層学習(ディープラーニング)技術を使ったディープニューラルネットワーク(DNN)の学習を低消費電力で実行できる回路技術を発表した(発表資料)。ネットワークの構造や学習方法は変えずに、数値を8ビットで表現して処理することで、32ビットの浮動小数点で実行する場合と比べて消費電力を約75%削減できるという。 2017年4月24~26日開催の「xSIG 2017 The 1st. cross-disciplinary Workshop on Computing Systems, Infrastructures, and Programming」で発表した。 開発した技術では、32ビット浮動小数点で与えた入力データやニューラルネットの重みを、一括で16ビットや8ビットの値に変換して学習処理を進める。一般に、演算に用いる数値のビット数を減らすほど消費電力は下がるが、演算精度は劣化する

    学習も8ビットで、富士通研が深層学習向けに低電力の回路技術