並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 137 件 / 137件

新着順 人気順

onnxの検索結果121 - 137 件 / 137件

  • HuggingFaceとONNXランタイムを備えた高速で小型の量子化NLP

    この投稿は、HuggingFaceの機械学習エンジニアであるMorganFuntowiczとMicrosoftのシニアソフトウェアエンジニアであるYufengLiによって書かれました。 自然言語処理(NLP)に使用されるTransformerモデルは大きいです。BERT-base-uncasedには約1億1000万のパラメーターがあり、RoBERTa-baseには約1億2500万のパラメーターがあり、GPT-2には約1億1700万のパラメーターがあります。各パラメーターは、32ビット(FP32)を必要とする浮動小数点数です。これは、これらのモデルのファイルサイズが、それらが消費するメモリと同様に巨大であることを意味します。これらすべてのビットで発生する必要のあるすべての計算は言うまでもありません。 これらの課題により、メモリとコンピューティングリソースが限られているクライアントデバイスでト

      HuggingFaceとONNXランタイムを備えた高速で小型の量子化NLP
    • 【PyTorch】既存モデルをONNXに保存しC#で推論する方法

      PyTorchで既存モデルをONNXファイルに保存 今回は、画像認識モデル(Object Detection)をONNXファイルに保存するサンプルです。 入力画像サイズや出力の名前を使用するモデルに合わせる必要があります。 import torch import torchvision # 入力画像サイズ(N, C, H, W) x = torch.randn(1, 3, 480, 640) # 学習済みモデル # 参考 https://pytorch.org/vision/main/models.html#object-detection-instance-segmentation-and-person-keypoint-detection model = torchvision.models.detection.fasterrcnn_mobilenet_v3_large_320_fpn

        【PyTorch】既存モデルをONNXに保存しC#で推論する方法
      • Yasunori Shimura on Twitter: "@PINTO03091 こんな感じ。python pytorch_to_onnx.py --model-name DBFace --weights dbface.pth --import-module DBFace --input… https://t.co/dtYHDAMv3n"

        @PINTO03091 こんな感じ。python pytorch_to_onnx.py --model-name DBFace --weights dbface.pth --import-module DBFace --input… https://t.co/dtYHDAMv3n

          Yasunori Shimura on Twitter: "@PINTO03091 こんな感じ。python pytorch_to_onnx.py --model-name DBFace --weights dbface.pth --import-module DBFace --input… https://t.co/dtYHDAMv3n"
        • 初めてのONNX - Qiita

          import onnx from onnx import helper from onnx import AttributeProto, TensorProto, GraphProto X = helper.make_tensor_value_info('X', TensorProto.FLOAT, [1, 2]) Y = helper.make_tensor_value_info('Y', TensorProto.FLOAT, [1, 4]) node_def = helper.make_node( 'Pad', ['X'], ['Y'], mode = 'constant', value = 1.5, pads = [0, 1, 0, 1] ) graph_def = helper.make_graph( [node_def], 'test-model', [X], [Y] ) mod

            初めてのONNX - Qiita
          • Visual StudioにONNXファイルを登録したのにクラスを自動生成してくれない場合の対処方法

            Windows MLのチュートリアルをやってみたのですが、まさかのVisual Studioがチュートリアル通り動いてくれなかったので、対処した手順を記録しておきます。 目次 Windows10でディープラーニングを使ったアプリを作るどういうチュートリアルなのか準備チュートリアルのダウンロードプロジェクトをVisual Studioで開くモデルをプロジェクトに組み込むモデル用csファイルを生成する生成されたコードを覗いてみるメインのコードを修正する実行してみるWindows10でディープラーニングを使ったアプリを作る Windows10には、アップデートによってWindows MLという機械学習用の機能が載るようになりました。これによってONNXというフォーマットのディープラーニングのモデルデータをWindowsのアプリに組み込むことができるようになりました。 その方法としてマイクロソフト

              Visual StudioにONNXファイルを登録したのにクラスを自動生成してくれない場合の対処方法
            • MMdnnで、tf.kerasのVGG16をONNX変換し、Neural Network Consoleへインポート。課題あり。 - SE_BOKUのまとめノート的ブログ

              ONNXのような共通フォーマットのメリットを、現実的に享受することを考えると、「どこかの処理系で「学習済」のモデルをONNX形式を介して、自分の処理系にとりこんでファインチューニング」ができるかどうか?が大きいです。 現時点でどこまで可能になっているのか? それを試してみたのが、今回のテーマです。 結論から書いておきます 技術は日進月歩です。 以下は、2019年2月終了時点の記事ということを念頭に読んでくださいね。 さて。 今回やってみたのは以下の2つです。 tf.kerasの学習済VGG16モデルをONNX形式ファイルに変換する 新規に作成したシンプルなkerasモデルをONNX形式ファイルに変換する 上記のONNXファイルをNeural Network Consoleにインポートする 試した(2019/02/16)バージョンは。 Tensorflow 1.12 / Neural Net

                MMdnnで、tf.kerasのVGG16をONNX変換し、Neural Network Consoleへインポート。課題あり。 - SE_BOKUのまとめノート的ブログ
              • Pytorch-ONNXを量子化して高速化する - Qiita

                import torch model = torch.hub.load("bryandlee/animegan2-pytorch:main", "generator", pretrained="celeba_distill").eval() model_int8 = torch.quantization.convert(model) dummy_input = torch.randn(1, 3, 512, 512) input_names = [ "input" ] output_names = [ "var_444" ] torch.onnx.export(model_int8z, dummy_input, "animegan2_celeba_distill.onnx", verbose=True, input_names=input_names, output_names=output

                  Pytorch-ONNXを量子化して高速化する - Qiita
                • ONNX エクスポートのための torch.inverse (torch.inv) の置き換えワークアラウンド(2D〜6D)

                  from onnxruntime.tools import pytorch_export_contrib_ops import torch pytorch_export_contrib_ops.register() torch.onnx.export(...) import torch M = torch.tensor( [ [[1., 2., 3.],[1.5, 2., 2.3],[.1, .2, .5]], [[.1, .2, .5],[1.5, 2., 2.3],[1.,2., 3.]], ] ) Binv = torch.linalg.inv(M) print(Binv) a=0 """ M.shape torch.Size([2, 3, 3]) tensor( [ [ [-2.7000e+00, 2.0000e+00, 7.0000e+00], [ 2.6000e+00, -1.

                    ONNX エクスポートのための torch.inverse (torch.inv) の置き換えワークアラウンド(2D〜6D)
                  • ONNX Runtime 1.5.1がリリース

                    Microsoftは米国時間2020年10月12日、ONNX(Open Neural Network Exchange) Runtime 1.5.1のリリースを公式ブログで発表した。機械学習フレームワーク間の相互運用を目的とした形式の1つであるONNXだが、最新版では、ビルドに含まれる演算子カーネルをシナリオに応じて縮小できる機能や、モバイルデバイスと組み込みデバイス向けにビルドサイズを最小限に抑える「ONNX Runtime for Mobile Platforms」のプレビュー版を追加した。 ONNX Runtime for Mobile Platformsの概要(画像はすべて公式ブログより抜粋) すべての標準的なONNXモデルの実行をサポートするONNX Runtime for Mobile Platformsだが、サポートモデルによってランタイムパッケージのサイズは異なるものの、「

                      ONNX Runtime 1.5.1がリリース
                    • 「AMD ROCm 6.0」公開 - ONNXランタイム互換に、Radeon RX 7900 GRE / PRO W7800サポート追加

                      米AMDは2月14日、機械学習向けのソフトウェアスイートにおけるメジャーアップデート「AMD ROCm 6.0」を公開した。 「AMD ROCm 6.0」公開 - ONNXランタイム互換に、Radeon RX 7900 GREとPRO W7800サポート追加 Radeonデバイスを搭載するLinuxシステムにおいて、機械学習ワークロードを支援するソフトウェアスイートのメジャーアップデートが公開されたという内容。新しく「Radeon RX 7900 GRE」「Radeon PRO W7800」へのサポート追加が図られているほか、ONNX(Open Neural Network eXchange)ランタイムへの互換性を追加した点が特徴。異なるフレームワーク間で、AIモデルを相互に利用できるようになるとしている。 ONNXランタイム互換に

                        「AMD ROCm 6.0」公開 - ONNXランタイム互換に、Radeon RX 7900 GRE / PRO W7800サポート追加
                      • ONNXを試す - kiizuka’s vault

                        前回はONNXとは何なのか、インストール方法を書いたので、 今回は実際に使ってみた、という記事です。 ONNXデータのインポート まずはデータを取得するところからです。 サンプルとしてONNXのモデルのレポジトリに記載されているリンクから好きなモデルのファイルを取得します。ここではinception v1モデルのonnxファイルをダウンロードしたいと思います。一応以下のコマンドからも取得できます。 $ wget https://s3.amazonaws.com/download.onnx/models/opset_9/inception_v1.tar.gz これを解凍すると、 inception_v1/ |-model.onnx |-test_data_0.npz |-test_data_1.npz |-test_data_2.npz |-test_data_set_0/ |-test_d

                          ONNXを試す - kiizuka’s vault
                        • ONNXに埋め込むopsetを設定する - Qiita

                          ONNXのopsetとは ONNXファイルには、ファイル作成時のバージョンとしてopsetを指定する機能があります。opsetの値に応じて、使用できるオペレータやその機能(オペレータのプロパティ)が変わります。特に指定が無い場合は最新のopsetとして扱います。 Deep Learning系のツールによってはONNXファイルのopsetの値を確認し、自分自身が処理できるかどうかを確認するルーチンが含まれています。そこの確認ルーチンではじかれた場合は、opsetを下げて再度ONNXファイルを作る必要があります。 ここを見るとそれぞれのオペレータが対応しているバージョンを確認出来ます。例えば、ABSではバージョンとして1,6,13が存在し、13ではABSで使える型としてbfloat16が追加されていることが分かります。 Kerasでopsetを指定してONNXファイルを作る opsetの指定方

                            ONNXに埋め込むopsetを設定する - Qiita
                          • [B! ONNX] makayaのブックマーク

                            R&D チームの奥村(@izariuo440)です。相変わらず深層学習モデルの推論に取り組んでいます。深層学習モデルの推論器として二年前に ONNX Runtime を軽くレビューしましたが、当時と比較するとかなり進歩しており、ONNX Runtime だけでなく ONNX 自体や関連ソフトウェアも成熟が進んでいるので、備忘録として私がお世話になっているものをかいつまんで紹介します。 OPTiM TECH BLOG Advent Calendar 2020 12/18 の記事です。 ONNX や ONNX Runtime は二年前の記事で少し解説しています。必要に応じてご参照ください。 tech-blog.optim.co.jp ONNX チュートリアル ONNX Model Zoo オプティマイザ その他 ONNX 関連のソフトウェア ONNX Runtime onnx-tensorrt

                            • (beta) onnxの標準機能で2つ以上のonnxファイルを1つにマージする

                              docker run --gpus all -it --rm \ -v `pwd`:/home/user/workdir \ ghcr.io/pinto0309/openvino2tensorflow:latest git clone https://github.com/protocolbuffers/protobuf.git cd protobuf git checkout v3.16.0 git submodule update --init --recursive mkdir build_source && cd build_source cmake ../cmake \ -Dprotobuf_BUILD_SHARED_LIBS=OFF \ -DCMAKE_INSTALL_PREFIX=/usr \ -DCMAKE_INSTALL_SYSCONFDIR=/etc \ -DCMAKE

                                (beta) onnxの標準機能で2つ以上のonnxファイルを1つにマージする
                              • PaddleOCRをONNXに変換してお試し🦔 - 高橋かずひとのプログラミング、その他、備忘録。

                                PaddleOCRは、個人的には結構信頼しているOSSのOCRです👀 ちょいちょい案件とかで使ったこともありますが、PaddlePaddle依存なのがちょっと困るケースある感じでした(運用環境には複数の機械学習フレームワークを混在させたくないし。。。) ONNX変換手順は公式に書いてあるので良いのですが、推論コードが結局PaddlePaddleに依存してたりで、今まで腰が重かったのですが、ちょっとまた業務で使う可能性出てきて、力業でインポートと処理を消して動作確認しました。 PaddleOCRをONNX変換して動作確認👀 pic.twitter.com/6vzMLXDAFV — 高橋 かずひと@闇のパワポLT職人 (@KzhtTkhs) 2023年6月10日 ソースコードは以下にコミットしています👻 github.com

                                  PaddleOCRをONNXに変換してお試し🦔 - 高橋かずひとのプログラミング、その他、備忘録。
                                • ONNXの魔改造手順いろいろ

                                  Hobby programmer. Intel Software Innovator Program member.

                                    ONNXの魔改造手順いろいろ
                                  • ONNXモデルを内蔵GPUで推論する。 - Qiita

                                    ONNXモデルをグラボが無くても(CPUより)もっと速く推論できないか、ということで内蔵GPUで推論してみました。 環境構築 PCの要件 onnxruntime-directmlというパッケージを使うので、PCは以下の要件を満たす必要があります。 DirectX 12対応CPU(Intelなら第4世代以降) Windows 10, version 1903以降のWindows 詳細は以下 https://onnxruntime.ai/docs/execution-providers/DirectML-ExecutionProvider.html#requirements Pythonパッケージ Pillow(画像読み込み用) numpy(前処理用) onnxruntime-directml インストール後、pip freezeすると以下のようになりました(Python 3.10.9を使用)

                                      ONNXモデルを内蔵GPUで推論する。 - Qiita