エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
FPGAの部屋 「ゼロから作るDeep Learning」の2層ニューラルネットワークのハードウェア化1
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
FPGAの部屋 「ゼロから作るDeep Learning」の2層ニューラルネットワークのハードウェア化1
「ゼロから作るDeep Learning」は以前、すべての章をご紹介した。とっても良い本だ。 その5章 誤差逆伝... 「ゼロから作るDeep Learning」は以前、すべての章をご紹介した。とっても良い本だ。 その5章 誤差逆伝播法の2層のニューラルネットワークをハードウェア化してFPGA に実装してみようと思う。 学習はdeep-learning-from-scratch/ch05/ のtrain_neuralnet.py のコードをそのまま使用する。 このままでは浮動小数点数なので、指定されたビット長の固定小数点に量子化するメソッドをtwo_layer_net.py、layers.py に追加してある。それが、two_layer_net_int.py、layers_int.py だ。 上の図のように Class Relu に def forward_int が追加されているのが分かると思う。つまり、固定小数点に量子化してforward 処理を実行するメソッドを追加したわけだ。ただし、Relu はfo