
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Pytorch-ONNXを量子化して高速化する - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Pytorch-ONNXを量子化して高速化する - Qiita
import torch model = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="... import torch model = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="celeba_distill").eval() model_int8 = torch.quantization.convert(model) dummy_input = torch.randn(1, 3, 512, 512) input_names = [ "input" ] output_names = [ "var_444" ] torch.onnx.export(model_int8z, dummy_input, "animegan2_celeba_distill.onnx", verbose=True, input_names=input_names, output_names=output