エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 人気コメント
- 新着コメント
人気コメント算出アルゴリズムの一部にヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Transformerモデルの高速化 - Retrieva TECH BLOG
Cheif Research Officerの西鳥羽 (Jiro Nishitoba (@jnishi) | Twitter) です。 前回はONNX runtimeを利... Cheif Research Officerの西鳥羽 (Jiro Nishitoba (@jnishi) | Twitter) です。 前回はONNX runtimeを利用した高速化を紹介いたしました。今回はさらなる高速化をしたいと思います。 NVIDIA社のTensorRTおよびIntel社のOpenVINOを利用します。 onnxruntimeのインストール OpenVINOやTensorRTを用いる場合*1、onnxruntimeをソースからビルドしてインストールします。なお、OpenVINOやTensorRTは既にインストールされているものとします。これらのインストールはOpenVINOのinstallation instructionやTensorRTのInstallation Guideを参考にしてください。 以下のコマンドでonnxruntimeの取得とビルドを行います。詳し
2022/12/08 リンク