並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 137件

新着順 人気順

onnxの検索結果81 - 120 件 / 137件

  • Steps to merge two ONNX files into one

    1. Introduction This section describes a simple procedure for combining two ONNX into one ONNX. Because it's a pain to modify the original PyTorch program when exporting ONNX from PyTorch. In order to combine two ONNX with this simple procedure, the prerequisites are The number of outputs of the first ONNX must match the number of inputs of the second ONNX. The shape of the output of the first ONN

      Steps to merge two ONNX files into one
    • ONNX Runtime(GPU版)のインストール

      「ONNX形式のモデルをもっと速く処理(推論)したい」 「ONNX RuntimeをGPUで起動させたい」 このような場合には、この記事の内容が参考になります。 この記事では、GPU版のONNX Runtimeをインストールする方法を解説しています。 本記事の内容 ONNX Runtime(GPU版)とは?ONNX Runtime(GPU版)のシステム要件ONNX Runtime(GPU版)のインストールONNX Runtime(GPU版)の動作確認 それでは、上記に沿って解説していきます。 ONNX Runtime(GPU版)とは? ONNX Runtimeとは、クロスプラットフォームの高性能ML推論・学習アクセラレータです。 そして、GPU対応したモノがONNX Runtime(GPU版)となります。 TensorFlowで学習したモデルをONNX形式にしておけば、ONNX Runti

        ONNX Runtime(GPU版)のインストール
      • EMNISTのデータを学習してONNXを出力する【Python】【ML】 - yousanのメモ

        はじめに やりたいこと 環境 環境構築 Dockerfile docker-compose 実装 結果 参考サイトおよびChatGPTの返答内容 データセット引用元 参考サイト ChatGPT はじめに UnityのBarracudaでMLを使ったプロジェクトを作成したいので、準備としてデータを作成しています。 MLに関してはちょっと調べてる使っているレベルなので、コード等は間違っていることがあります。 また今回はChatGPTを試しに使ってプログラムを作成しているため、ご了承ください やりたいこと EMISTのデータをほかのプラットフォーム(今回はUnity)で使えるようにONNXとして出力する 環境 Docker version 20.10.22 Docker Desktop 4.16.1 (95567) : Windows 10 環境構築 今回は Docker上にPythonで学習用

        • ONNXファイルのパース処理 - TadaoYamaokaの開発日記

          dlshogiは現在TensorRTを使用しているが、TensorRTは再配布できないなどライセンスが厳しいのと、環境構築が大変なため、OpenCLに対応させたいと思っている。 OpenCLでも、NVIDIAのGPUのTensorCoreをPTXインラインアセンブリという方法で使用することができるため、上手に実装すればパフォーマンスは同等にできる見込みである。 KataGoのv1.5.0で、OpenCLでのTensorCoreサポートが実装されているため、ソースを流用すればなんとか実装できると思っている。 ただし、活性化関数にswishを使っていたりといった違いがあるため、そのままでは流用できず、KataGoのOpenCLのソースを理解した上で取り込む必要があり、なかなかハードルが高い。 また、dlshogiはモデルファイルのフォーマットにONNXを採用しているため、モデルファイルをパース

            ONNXファイルのパース処理 - TadaoYamaokaの開発日記
          • onnxのinputの構造を取得するワンライナー

            import onnx model=onnx.load("deeplab_edgetpu_default_argmax_xs.onnx") inputs=[[d.dim_value for d in _input.type.tensor_type.shape.dim] for _input in model.graph.input] print(inputs) for input, input_shape in zip(model.graph.input, inputs): shape_string = "" for idx, shape in enumerate(input_shape): if idx==0 and shape==0: shape=1 shape_string = f'{shape_string}{shape},' print(f'"{input.name}":{sha

              onnxのinputの構造を取得するワンライナー
            • WhisperのモデルをONNXにする その2 - TadaoYamaokaの開発日記

              前回、WhisperのモデルをONNXにする方法について記述した。 Whisperのモデルは、単体では音声認識はできず、音声をメルスペクトログラムにする前処理と、トークンをデコードして文字列にする後処理が必要になる。 今回は、前処理と後処理をC#で実装する方法について記述する。 音声認識の流れ 以下のような流れで音声をテキストに変換する。 音声を16kHzにリサンプリングする 対数メルスペクトログラムに変換する ONNXモデルで推論する 推論結果をトークン列にする トークン列をデコードしてUTF8の文字列にする 以下ではそれぞれの処理の実装方法について記述する。 音声を16kHzにリサンプリングする Whisperでは、ffmpeg-pythonを使用してリサンプリングしている。 .NETでffmpegを扱う良いライブラリがなかったので、.NETのオーディオライブラリのNAudioを使用し

                WhisperのモデルをONNXにする その2 - TadaoYamaokaの開発日記
              • ONNXのdocを読む: ONNX versioning

                ONNXのドキュメントをちゃんと読もうということで読んだところからメモとしていろいろまとめていこうと思う(今更だけど)。今回はONNX利用者がまず意識しないといけないversioningのドキュメントを読む。 Ref: https://github.com/onnx/onnx/blob/v1.4.1/docs/Versioning.md ONNX versioningの基本方針 ONNXのversioningには大きく三つのポリシーがある: IR version: グラフと演算子の抽象モデル、それらのフォーマットのバージョン管理。 Operator version: ONNX graphから参照されるオペレータ仕様のバージョン管理。 Model version: 定義済み/学習済みモデルのバージョン管理。 IR versionとOperator versionは守らなければいけないバージョ

                • scikit-learnやlightgbmなどのONNX形式モデルがブラウザで動作しないとき - Qiita

                  やりたいこと Pythonで訓練したモデルをONNX形式でブラウザ上(JavaScript)で推論させたい。 使用ライブラリ Python scikit-learn/lightgbm onnxmltools JavaScript onnxruntime-web 問題 JSのサンプルコード通りに書いてもsession.run()部分で4123988のようなエラーが出て動かない。 解決法 PythonでモデルをONNX形式に変換する際、zipmapオプションを無効にしないとブラウザでは動かないらしい。 例えば、LightGBMモデルだとこんな感じ。 import onnxmltools onnx_model = onnxmltools.convert_lightgbm(model, initial_types=initial_types, zipmap=False)

                    scikit-learnやlightgbmなどのONNX形式モデルがブラウザで動作しないとき - Qiita
                  • Unity Barracuda用の Split 実装とONNXエクスポート

                    python make_split_replace.py \ --opset 11 \ --model_name_suffix 4 \ --data_shape 102 2 \ --data_type float32 \ --split_axis 1 \ --split_number_of_after_division 1 MODEL=barracuda_split_0 NUM=0 sor4onnx \ --input_onnx_file_path ${MODEL}.onnx \ --old_new "onnx::Slice_2" "${MODEL}_slice_starts${NUM}" \ --output_onnx_file_path ${MODEL}.onnx sor4onnx \ --input_onnx_file_path ${MODEL}.onnx \ --old_new "

                      Unity Barracuda用の Split 実装とONNXエクスポート
                    • Running ONNX Model on FPGA with Gemmini SoC | Luffca

                      Luffcaでは、FPGAボード上にDNNアクセラレータのGemminiとRISC-V CPUのRocketを実装し、ONNXモデルを実行することに成功しました。 関連記事は、こちら。 Running Test Programs on Gemmini Simulators Running ResNet-50 on FPGA with Gemmini SoC Running ONNX Model on FPGA with Gemmini SoC(本記事) Gemminiは、アジャイルRISC-V SoCデザインフレームワークのChipyardに含まれるRTLジェネレータの一つで、シストリックアレイ方式のDNNアクセラレータを生成することができます。 Gemminiリポジトリから引用した下図が、Gemminiシステムの概要を示しています。 Open Neural Network Exchang

                        Running ONNX Model on FPGA with Gemmini SoC | Luffca
                      • C# と ONNX Runtime Generative AI (DirectML) を利用して Phi-3 Vision をローカルで動かす - しばやん雑記

                        以前に ONNX Runtime Generative AI に対応した Phi-3 mini / medium のモデルを利用して、ローカルマシンの DirectML アクセラレーションが効く形で動かしてみました。本命と考えている NPU に最適化された Phi-Silica はまだ利用可能になっていないので、今のところは Phi-3 を DirectML で使うのが現実的な方法です。 その時には公開されていなかった Phi-3 Vision の ONNX モデルがつい最近 Hugging Face で公開されたようなので、今回はマルチモーダルに対応した形で ONNX Runtime Generative AI を使って試してみます。 Phi-3 Vision 128k の DirectML 向け ONNX モデル公開されてた https://t.co/KyiRyX2sVo— Tatsu

                          C# と ONNX Runtime Generative AI (DirectML) を利用して Phi-3 Vision をローカルで動かす - しばやん雑記
                        • ONNXファイルを自力で読み込むだけ - Qiita

                          はじめに ライブラリを使わずに.onnxファイルを読み込むまとまった記事が見つからず四苦八苦したので、ここにまとめます。 最終的には、中間層が二つあるFFNNをPyTorchで生成し.onnxファイルを出力、そしてそれをJavaScript(ES Module)により読み取ります。 とりあえず読み込んだという内容ですので、次のような内容はありません。 汎用的な.onnxフォーマットの読み込み。 読み込んだデータで実際に計算処理を実行。 なお、環境はLinux(Ubuntu)です。 ONNXとは ONNXとは、ニューラルネットワークのモデルをいい感じに保存するフォーマットの一つです。 フォーマットはProtocol Buffersにより記述されており、また.onnxで表されるONNXファイルはProtocol Buffersによってシリアライズされたファイルとなります。 有名なニューラルネッ

                            ONNXファイルを自力で読み込むだけ - Qiita
                          • DeepNudeの学習済みファイルをBarracudaで使用するためにonnxファイルに変換する - Qiita

                            環境 python3.7 概要 Unityの機械学習ライブラリであるBarracudaでDeepNudeの学習済みデータを使用するためにonnxファイルに変換します。 以下の関数をgan.py内にあるDeepModelクラスに追加します。 def export_onnx(self): self.netG.eval() batchSize = self.opt.batchSize imageChannel = self.opt.input_nc width = 512 height = 512 input = torch.randn(batchSize, imageChannel, width, height) checkpointPath = self.opt.checkpoints_dir basename_without_ext = os.path.splitext(os.path.b

                              DeepNudeの学習済みファイルをBarracudaで使用するためにonnxファイルに変換する - Qiita
                            • Onnxファイル - Google 検索

                              2018/04/18 · テキストファイルのフォーマットについてここでは説明しませんが、 graph や node 、 input や output などのモデルを構築するための情報が記述され、ONNX ...

                              • ONNX -> TFLite, TensorFlow, Keras, TFJS, CoreML 変換

                                およそ3光年ぶりの公開記事。 1. 自作ツール onnx2tf 実装している機能が多すぎるので、この記事に表現していない変換オプションはREADMEを参照。TransformerやSTTやTTSやその他もろもろの一発変換に対応したつもり。onnx-tensorflow より推論効率が高いモデルを生成できる。また、onnx-tensorflowよりも対応しているオペレーションの種類が多い。 コントリビューター コード量(code = 行) cloc . 419 text files. 414 unique files. 174 files ignored. ---------------------------------------- Language files blank comment code ---------------------------------------- Pyt

                                  ONNX -> TFLite, TensorFlow, Keras, TFJS, CoreML 変換
                                • ONNXモデルを並列に接続する - Qiita

                                  この記事はTSG Advent Calendar 2022の11日目のエントリです。 推論モデルが選択可能なONNXファイルを作りたい 複数のONNXモデルをユーザーの入力によって使い分けたいとき、呼び出し側で複数のInferenceSessionを立てるという手がありますが、呼び出し側のプログラムを変更するのが面倒というケースもあると思います。そこでこの記事では、複数のONNXを一つにまとめ内部で分岐させる方法を紹介します。 扱うモデルはresnet18, 34, 50として、引数depthに従って使われるモデルが変化するONNXを作成してみます。Pytorchで表現すると次のようになります。 import torch from torch import nn from torchvision import models class Model(nn.Module): def __ini

                                    ONNXモデルを並列に接続する - Qiita
                                  • ONNX モデル: 推論を最適化する - Azure Machine Learning

                                    Open Neural Network Exchange (ONNX) の使用が機械学習モデルの推論の最適化にどのように寄与するかについて説明します。 "推論" つまり "モデル スコアリング" は、デプロイされたモデルを使用して実稼働データに対して予測を生成するプロセスです。 推論用に機械学習モデルを最適化するには、ハードウェア機能を最大限に活用するためにモデルと推論ライブラリを調整する必要があります。 クラウドやエッジ、CPU や GPU などのさまざまな種類のプラットフォームで最適なパフォーマンスを引き出そうとすると、このタスクは複雑になります。それぞれのプラットフォームで性能と特性が異なるためです。 さまざまなフレームワークのモデルがあって、それらを異なるプラットフォームで実行する必要がある場合、複雑さが増します。 異なるフレームワークとハードウェアの組み合わせをすべて最適化するに

                                      ONNX モデル: 推論を最適化する - Azure Machine Learning
                                    • YOLOv8をONNXに変換して動かしてみる|toki@FA Engineer

                                      今回は前回からの続きで、学習したYOLOv8のモデルをONNX形式に変換し、ONNX Runtime で実行する方法について紹介します。 ■ ONNXとは機械学習モデルを、異なるフレームワーク間でシームレスに移行させるための共通フォーマットです。 通常、TensorFlowのフレームワークで作成した機械学習モデルは、TensorFlow上で実行します。YOLOであればPyTorchがベースとなっているため、実行するにはPyTorchの環境が必要です。 ONNXフォーマットに変換し、ONNX Runtimeを用意することで、様々なハードウェア環境上でモデル推論を行うことが可能になります。 また、ONNX Runtimeでモデルを走らせることにより、(GPUを積んでいない)CPU環境での高速化が見込まれます。一般的にPyTorchやTensorFlowなどの機械学習ライブラリは、モデルの学習や

                                        YOLOv8をONNXに変換して動かしてみる|toki@FA Engineer
                                      • ONNX Runtime 1.8.1 がリリース。AMD ROCm™ オープン ソフトウェア プラットフォームを活用した、AMD GPU によるトレーニング高速化のサポートをプレビュー提供 | Microsoft Base

                                        ONNX Runtime 1.8.1 がリリース。AMD ROCm™ オープン ソフトウェア プラットフォームを活用した、AMD GPU によるトレーニング高速化のサポートをプレビュー提供

                                        • TensorFlowやPyTorchからONNXへエクスポートするときに extra_opset を取り込んでエクスポートする方法など (MatrixInverse, torch.inverse)

                                          ONNXに標準で実装されていないTensorFlowのオペレーションをエクスポートしたいときのワークアラウンド --extra_opset com.microsoft:1 python3 -m tf2onnx.convert \ --saved-model saved_model \ --opset 11 \ --output model_float32.onnx \ --extra_opset com.microsoft:1 #['com.microsoft:1','ai.onnx.contrib:1','ai.onnx.converters.tensorflow:1']

                                            TensorFlowやPyTorchからONNXへエクスポートするときに extra_opset を取り込んでエクスポートする方法など (MatrixInverse, torch.inverse)
                                          • mmposeのHRNetをONNX変換 | Hakky Handbook

                                            はじめに​ 本記事はmmposeで学習したモデルのONNX形式への変換についてまとめたページです。 今回はmmposeの姿勢推定モデルのHRNetを例にONNX変換と推論を実施します。 ONNXについてはONNXの概要に詳しくまとめられていますのでご覧ください。 動作環境​ 実行環境はGoogle Colaboratryを使用します。 mmposeで学習したモデルをONNX形式に変換する​ mmposeのHRNetモデルの作成はこちらの記事を参考にしてください。 mmposeのgitリポジトリにpytorch2onnx.pyという変換用のファイルがあり、そちらを利用してHRNetモデルをONNX形式に変換します。 まずはmmposeのリポジトリをチェックアウトしてきます。

                                            • PyTorch の argsort を sort に置き換えて ONNX にエクスポートする

                                              1. はじめに 素晴らしいPyTorchのモデルをONNXにエクスポートしようとすると下記のようなエラーに悩まされることがあります。torch.argsort を含むモデルです。ちなみに、PyTorch の公式エンジニアも、ONNXの公式エンジニアもまともに取り合ってくれていません。さらに、issueを解決したと考えられる回答の内容に全く中身がありません。困りますね。皆さん、青色の血が流れているのでしょうか。 Traceback (most recent call last): File "demo.py", line 49, in <module> torch.onnx.export(pose_ssstereo, (x, x), f"coex_{H}x{W}.onnx", opset_version=11) File "/usr/local/lib/python3.8/dist-pack

                                                PyTorch の argsort を sort に置き換えて ONNX にエクスポートする 
                                              • TrOCRのモデルをONNX化するのにハマった点 - Qiita

                                                decoderとencoder別々でONNX化しなければならなかった。 TrOCRのモデルをONNX formatに変換するときにハマったのでメモ。 Pytorchのチュートリアル「EXPORTING A MODEL FROM PYTORCH TO ONNX AND RUNNING IT USING ONNX RUNTIME」 をみるとtorch.onnx.exportに作ったモデルを通せば良いんだなーとだけ思っていたが、TrOCRのようなtransfomerが入ってるモデルだと、エンコーダーとデコーダーでそれぞれtorch.onnx.exportする必要がある。例えばこんな感じ↓ torch.onnx.export(trocr_encoder, x, "trocr_encoder.onnx", export_params=True, opset_version=10, do_consta

                                                  TrOCRのモデルをONNX化するのにハマった点 - Qiita
                                                • [Rust] ortでonnxモデルを使って推論したりWASMにしたりしてみる | DevelopersIO

                                                  Introduction 以前、BurnというRustの機械学習フレームワークで ONNXファイルを変換して使うという記事を書きました。 問題なく変換して推論までできましたが、onnxファイルをそのまま使いたいケースもあります。 というわけで、今回はONNX RuntimeのRustラッパー「ort」を使ってみます。 また、wasmpackを使ってWASMにしてChrome Extensionから使ってみます。 [補足] ONNX? ONNXは、さまざまな機械学習フレームワーク間で使用できる共通フォーマットです。 これを使うことにより、PytorchでトレーニングしたモデルをTensorFlowで使う みたいなことが容易にできます。 ort? ortは、ONNXランタイム用のRustバインディングです。 ここで紹介されていますが、ortとONNX Runtimeを併用することで、 さまざま

                                                    [Rust] ortでonnxモデルを使って推論したりWASMにしたりしてみる | DevelopersIO
                                                  • ONNX Runtime を使った AWS IoT Greengrass 上での画像分類の最適化 | Amazon Web Services

                                                    Amazon Web Services ブログ ONNX Runtime を使った AWS IoT Greengrass 上での画像分類の最適化 はじめに クラウドで学習したモデルを用いてエッジデバイス上で機械学習の推論を行うことは、低レイテンシー、スケーラビリティ、コスト削減のメリットをもたらすため、モノのインターネット(IoT)におけるよく知られたユースケースになっています。演算能力とメモリが限られているエッジデバイスにモデルを展開する場合、開発者は、望ましいパフォーマンスを達成するためにモデルを手動でチューニングするという課題を抱えています。このブログポストでは、AWS IoT Greengrass 上の ONNX Runtime を使用して、エッジでの画像分類を最適化する方法の例について紹介します。 ONNX は、あらゆるタイプの機械学習や深層学習モデルを表現するために構築されたオ

                                                      ONNX Runtime を使った AWS IoT Greengrass 上での画像分類の最適化 | Amazon Web Services
                                                    • 「ONNX TensorRTを用いた物体検出」を様々なバージョンのYOLOで試す

                                                      解説 「ONNX TensorRTを用いた物体検出」を様々なバージョンのYOLOで試してみます。 GitHubで公開されている「ONNX TensorRTを用いた物体検出」を様々なバージョンのYOLOで試すことができるデモである「jkjung-avt / tensorrt_demos」の「Demo #5: YOLOv4」を試してみます。 今回、Jetsonに最適化された機械学習開発用のコンテナ「L4T ML」上で試してみることとします。 機械学習開発用のコンテナの起動 「Dockerコンテナを実行してJupyterLabにアクセス」に従い、コンテナ起動スクリプトファイルを作成します。 「コンテナ上にいるTerminalから画像表示用のウィンドウを表示」できるようにするために、スクリプトファイルのコンテナ起動コマンドのオプションに以下を追加します。 --env DISPLAY=$DISPLA

                                                      • ONNX Runtime for WebをVue.js+WebGL環境で試す – Rest Term

                                                        Microsoftから ONNX Runtime for Web (ORT Web) なるものが9月2日にリリースされました。 ONNX Runtime Web—running your machine learning model in browser – Microsoft Open Source Blog ONNX (Open Neural Network Exchange) について ONNX (Open Neural Network Exchange) は機械学習のモデルフォーマットの一つです。機械学習フレームワークはTensowflowやPyTorch、MXNetやCaffe2などたくさんありますが、ONNXフォーマットを使えばそれらのフレームワーク間において相互運用が可能になります。共通で使えるファイル形式ということです。ONNXについての歴史や開発背景はWikipediaの

                                                        • Search result of “onnx” - Qiita

                                                          ONNXをCLIで編集するお手軽にONNXを編集する方法が ONNXモデルのチューニングテクニック (基礎編) ONNXモデルのチューニングテクニック (応用編1) ... ONNX

                                                            Search result of “onnx” - Qiita
                                                          • Scala 3でONNX Runtimeを走らせ、ウサギの画像分類タスクを実行させた - Lambdaカクテル

                                                            最近のAI技術の発展には目を見張るものがあるが、そんな中でも言語・ライブラリ・フレームワーク間の互換性は今ひとつ進んでいないのが現状で、TensorFlowとPyTorchとscikit-learnとでは別々の形式をモデルとして利用しているし、もちろんPythonで動かすしかないという現状がここ最近まではあった(最近MLをやるようになったので認識が雑だが、最近始めた人からはこう見えているという話)。 そんな中登場したONNX(Open Neural Network Exchange)は、群雄割拠しているDeep Learningモデルの共通規格として最近脚光を浴びつつある。 onnx.ai ja.wikipedia.org イケてる。カッコいいね。 また、ONNXは規格だけではなく軽量なランタイムも用意しており、ONNX Runtimeと呼ばれている(VOICEVOXもこれを呼び出している

                                                              Scala 3でONNX Runtimeを走らせ、ウサギの画像分類タスクを実行させた - Lambdaカクテル
                                                            • ONNX Runtime:CUDNN error executing cudnnAddTensor() の処置(2022年10月13現在) - 高橋かずひとのプログラミング、その他、備忘録。

                                                              どこにもメモった形跡が無いので、改めてメモ👀 kazuhito00.hatenablog.com 上記のモデルをONNXでGPU推論しようとすると以下のようなエラーが出ます。 onnxruntime.capi.onnxruntime_pybind11_state.Fail: [ONNXRuntimeError] : 1 : FAIL : Non-zero status code returned while running FusedConv node. Name:'Conv__1075' Status Message: CUDNN error executing cudnnAddTensor(Base::CudnnHandle(), &alpha, Base::s_.z_tensor, Base::s_.z_data, &alpha, Base::s_.y_tensor, Base::

                                                                ONNX Runtime:CUDNN error executing cudnnAddTensor() の処置(2022年10月13現在) - 高橋かずひとのプログラミング、その他、備忘録。
                                                              • 【Python】あれ? dnnモジュールのONNX推論遅くねえ? ※2021/12/14時点 - Qiita

                                                                結論 遅いです(ONNXランタイムと比較して) ※デフォルトバックエンド & CPU推論 でも、バージョンアップ毎にどんどん早くなり、対応レイヤーも増えているので、今後に期待です🦔 また、readNet() シリーズは、統一された処理で整備されているため使いやすいです。今後に期待です🦔 そして、readNet() シリーズは、OpenCVをインストールすれば使用できるため使い勝手が良く、今後に期待です🦔 ※環境による readNet() シリーズ readNet() ※readNet()はモデルの拡張子や引数から以下のAPIを呼び分ける readNetFromCaffe() readNetFromDarknet() readNetFromModelOptimizer() readNetFromONNX() readNetFromTensorflow() readNetFromTorc

                                                                  【Python】あれ? dnnモジュールのONNX推論遅くねえ? ※2021/12/14時点 - Qiita
                                                                • onnxのレイヤーごとの処理時間や使用スレッド情報などのプロファイリング・ベンチマーク

                                                                  今までどおり普通に推論するとプロファイリング結果が記録された xxxx.json が勝手に出力される。 import onnxruntime options = onnxruntime.SessionOptions() options.enable_profiling = True onnx_session = onnxruntime.InferenceSession( 'xxxx.onnx', sess_options=options, providers=['CPUExecutionProvider'], ) input_name = onnx_session.get_inputs()[0].name data = np.ones((256,256)) result = onnx_session.run(None, {input_name: data}) prof_file = onn

                                                                    onnxのレイヤーごとの処理時間や使用スレッド情報などのプロファイリング・ベンチマーク
                                                                  • Illustration2VecをONNX経由で使う - kivantium活動日記

                                                                    趣味プロジェクトでIllustration2Vecを使いたくなったのですが、これは2015年の論文なのでモデルをCaffeかChainerで使うことになっています。 github.com 残念ながらCaffeもChainerも既に開発が終了しているため、Illustration2VecのモデルをONNXという共通フォーマットに変換して今後も使えるようにしました。 利用方法だけ知りたい人は「モデルの変換」を飛ばして「使い方」を見てください。 モデルの変換 まずはオリジナルのIllustration2Vecのモデルをダウンロードします。以下を実行するとCaffeのモデルがダウンロードできます。 git clone https://github.com/rezoo/illustration2vec.git cd illustration2vec ./get_models.sh このスクリプトでは

                                                                      Illustration2VecをONNX経由で使う - kivantium活動日記
                                                                    • Unity BaracudaでTensorFlowおよびONNXモデルを使用する方法|npaka

                                                                      以下の記事を参考に書いてます。 ・How to use (some) TensorFlow and ONNX computer vision models in Unity 1. はじめにしばらく前に、「TensorFlow Sharp Plugin」によるを使用したUnityでのTensorFlowモデルの使い方を紹介しました。「画像分類」は十分に機能しましたが、「物体検出」のパフォーマンスは低いという結果になりました。それでも、Unityで機械学習を必要とする人にとっては、良い出発点になると思いました。 しかし残念なことに、Unityは「TensorFlow」のサポートを終了し、「Barracuda」というコードネームの独自の推論エンジンの開発に移行しました。「TensorFlow Sharp Plugin」も引き続き使用できますが、TensorFlow 1.7.1向けに実装されいるた

                                                                        Unity BaracudaでTensorFlowおよびONNXモデルを使用する方法|npaka
                                                                      • CNTKで作成したモデルをONNX形式で出力してみる。 - Qiita

                                                                        はじめに 最近、CNTKを使用してみています。CNTKはONNXに対応しており、ONNX形式のモデルを入出力できます。ONNXは機械学習のモデルを異なるフレームワーク間で共有するツールです。Chainerで作成したモデルをCNTKで利用する、など相互に活用できるようになります。 今回はirisの分類をCNTKで行い、ONNX形式でモデルを出力してみようと思います。 環境 環境 バージョン

                                                                          CNTKで作成したモデルをONNX形式で出力してみる。 - Qiita
                                                                        • ONNX 形式の scikit-learn モデルを使用して予測を行う  |  BigQuery  |  Google Cloud

                                                                          デジタル トランスフォーメーションを加速 お客様がデジタル トランスフォーメーションに乗り出したばかりでも、あるいはすでに進めている場合でも、Google Cloud は困難な課題の解決を支援します。

                                                                            ONNX 形式の scikit-learn モデルを使用して予測を行う  |  BigQuery  |  Google Cloud
                                                                          • Pytorchモデル(AnimeGAN2)をONNXにエクスポートする - Qiita

                                                                            import torch # Get the model from torch hub. model = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="face_paint_512_v1").eval() # Convert. dummy_input = torch.randn(1, 3, 512, 512) input_names = [ "input" ] output_names = [ "var_444" ] torch.onnx.export(model, dummy_input, "animegan2_face_paint_512_v1.onnx", verbose=True, input_names=input_names, output_names=output_nam

                                                                              Pytorchモデル(AnimeGAN2)をONNXにエクスポートする - Qiita
                                                                            • DockerでGPU版ONNXを使ってみる | Shikoan's ML Blog

                                                                              見てわかる通り、GPUありにすると明らかに速くなっています。NanoやTinyは動画の読み込みがボトルネックになって、速度がサチっているので、参考程度です。 CPUの場合は、Flopsと反比例した速度になっていますが、GPUの場合は線形な関係になっていないのが面白かったです。GPUありのYOLOX-Xは20fpsぐらい出ているのが驚き。 このようにすればDocker上でも、GPUありのONNXを使えることがわかりました。ONNXなら環境を統一できますし、いろいろ便利そうですね。 コード main.py import argparse import onnxruntime as ort import cv2 import time import numpy as np from tqdm import tqdm from yolox_utils import preproc, multicl

                                                                                DockerでGPU版ONNXを使ってみる | Shikoan's ML Blog
                                                                              • ONNX を使用してデプロイと予測を行う - SQL machine learning

                                                                                このクイックスタートでは、モデルをトレーニングし、ONNX に変換して、Azure SQL Edge にデプロイした後、アップロードされた ONNX モデルを使用してデータに対してネイティブ PREDICT を実行する方法について説明します。 このクイックスタートは scikit-learn に基づいており、Boston Housing データセットを使用します。 開始する前に Azure SQL Edge を使用していて、Azure SQL Edge モジュールをデプロイしていない場合は、Azure portal を使用して SQL Edge をデプロイする手順に従います。 Azure Data Studio をインストールします。 このクイックスタートに必要な Python パッケージをインストールします。 Python 3 カーネルに接続された新しいノートブックを開きます。 [パッケ

                                                                                  ONNX を使用してデプロイと予測を行う - SQL machine learning
                                                                                • Unity Sentisを使ってonnxでデバイスのみで動くSTTを実装する - yousanのメモ

                                                                                  初めに Demo 開発環境 ライブラリの準備 モデルの設定 スクリプトと音声の設定 実行 初めに 以下のモデルを触ってみます huggingface.co Demo 以下のように動作します!動画内の音声は、huggingfaceに含まれているサンプル音声になります www.youtube.com また以下のリポジトリがデモの動作環境になります github.com 開発環境 Unity 2023.3.0b2 Unity Sentis 1.4.0-pre.3 ライブラリの準備 まずは、Unityを立ち上げて必要なライブラリを入れます manifest.jsonに以下を追加します "com.unity.sentis": "1.4.0-pre.3", モデルの設定 以下で使用するモデル等をダウンロードします。今回は unity/sentis-whisper-tinyを使用しています git lf

                                                                                    Unity Sentisを使ってonnxでデバイスのみで動くSTTを実装する - yousanのメモ