ディープニューラルネットワーク(DNN)を使った推論処理を、組み込み機器で高速に実行可能にするユニークなアクセラレータ回路「DRP(dynamically reconfigurable processor)-AI」をルネサスエレクトロニクスが開発した。DNNの高速化に利用できる複数のハードウエアの優れた特徴を、単独の回路で兼ね備えた手法といえる。具体的には、DNNの処理全体をFPGAにハードウエアとして実装した場合に迫る能力を、SoC(system on a chip)に組み込む既存のアクセラレータ回路と同程度の面積で実現できるとする(表1)。