この記事の中のソースコードは全てhttps://github.com/akawashiro/sonnxにあります。 概要 ニューラルネットワークから要らなそうな枝を80%削除しても精度が変わらなかった ONNXの中身をいじるのが大変だった onnxruntimeには勝てなかった 背景 機械学習の学習済みモデルを小さなデバイスで動かす、というのが最近流行っているそうです。機械学習では、学習には大きな計算コストがかかりますが、推論はそれほど大きな計算コストがかかりません。このため、学習だけを別のコンピュータで行っておいて、実際の推論は小さなデバイスで行うということが可能です。 ただし、推論だけでもそれなりに計算資源が必要です。そこで、学習済みのモデルの高速化が重要になります。Raspberry Piに搭載されているGPUを使うIdeinとか有名です。 僕も学習済みモデルの推論を高速化できそうな
![ONNXファイルから不要な枝を削ってMNISTの推論を高速化してみる - a_kawashiroのブログ](https://cdn-ak-scissors.b.st-hatena.com/image/square/71205c635c78c569920df6813ae60dee0c429919/height=288;version=1;width=512/https%3A%2F%2Fraw.githubusercontent.com%2Fakawashiro%2Fsonnx%2Fmaster%2Foriginal_NN.png)