GraphcoreのPoplar® SDKは、開発者がDocker Hubを介してアクセスでき、GraphcoreはDockerのVerified Publisher Programに参加しています。 Dockerと協力して、ソフトウェアスタックをコンテナイメージとして配布し、開発者がGraphcore IPUシステムでMLアプリケーションを簡単に構築、管理、デプロイできるようにします。 ハードウェアとソフトウェアをさらに使いやすくするために、開発者エクスペリエンスを継続的に強化しています。 ちょうど1年前、ユーザー向けに事前に構築されたDockerコンテナのセレクションを導入しました。 現在、イノベーションを推進するというミッションの一環として、Poplar SDK、PyTorch for IPU、TensorFlow for IPU、およびツールに、Docker Hub コミュニティの
やりたいこと ONNX形式のファイルが手元にあって、ちょっとだけ直したい。できるだけ手軽に。 目的は、 Model Zoo等から入手したONNXファイルの、入出力の形式を変更したい(floatじゃなくてbyteにしたいとか) ONNXファイルA の出力がそのまま ONNXファイルB の入力になるので、2つをくっつけたい 等です。 方針 ONNXファイルを、バイナリ形式からテキスト形式に変換する 適当なテキストエディタで編集する テキスト形式からバイナリ形式に戻す バイナリ形式⇔テキスト形式の相互変換方法さえわかればできたも同然です。 準備 Protocol Buffer Compilerのダウンロード バイナリ形式⇔テキスト形式の変換にはProtocol Buffer Compilerを使います。というのも、そもそもONNXファイルはProtocol Bufferを使って定義された形式だか
前回はONNXとは何なのか、インストール方法を書いたので、 今回は実際に使ってみた、という記事です。 ONNXデータのインポート まずはデータを取得するところからです。 サンプルとしてONNXのモデルのレポジトリに記載されているリンクから好きなモデルのファイルを取得します。ここではinception v1モデルのonnxファイルをダウンロードしたいと思います。一応以下のコマンドからも取得できます。 $ wget https://s3.amazonaws.com/download.onnx/models/opset_9/inception_v1.tar.gz これを解凍すると、 inception_v1/ |-model.onnx |-test_data_0.npz |-test_data_1.npz |-test_data_2.npz |-test_data_set_0/ |-test_d
Inference Stable Diffusion with C# and ONNX Runtime In this tutorial we will learn how to do inferencing for the popular Stable Diffusion deep learning model in C#. Stable Diffusion models take a text prompt and create an image that represents the text. See the example below: Contents Prerequisites Use Hugging Face to download the Stable Diffusion models Understanding the model in Python with Diff
Stable Diffusionは文字や画像を元に新たな画像を生成してくれるAIですが、実行環境としてPythonが必要とされてきました。そんな中、ONNXモデルおよびONNX Runtimeの活用とC++での実装でPythonへの依存をなくし、Xbox上で動作させることに成功した猛者が登場しました。 Stable Diffusion running on Xbox Series X and S for the first time - YouTube 左端の大きなアイコンが今回作成された「Unpaint」というアプリ。記事作成時点ではストアには存在せず、インストールするにはユーザーが自分でパッケージに署名する作業が必要になります。Xbox Series XおよびXbox Series Sのどちらでも動作可能とのこと。左の大きな画面にXbox Series Xの出力が表示されています。 起
こんにちは、Fくんです。 受験シーズンです... これのwindows版ですね どのくらい速くなるとかLinuxとかColabでの実行方法は前の記事を見ていただいて... Lsmith TensorRTをGUIで扱いやすくするものがだだっこぱんださんから出てます。 すぐwindows対応出ると思います ここから先はtensorrt repoのdemo-diffusion.pyを動かしたい人向けです Windowsで実行 CUDAをインストール まずはCUDAをインストールしてください。 僕の場合はCUDA 11.6を使います。 ↑ のリンクから、windows > 10 or 11 > exe(local) or exe(network) を選択してください。 cuDNNのインストール cuDNN 8.6をダウンロードします。 ↑ のリンクから、Download cuDNN v8.6.0
機械学習モデルの最適化¶ リアルタイム処理をする場合、機械学習モデルの実行速度を下げる必要が有ることもあります。 学習時とは異なり、推論時には、ネットワークの中に簡易化出来る箇所があり、 そういった箇所を省いたりすることで、処理速度やメモリ使用量を減らしたりします。 また、単純にビット数を落とすことも有効で単精度にしたり、1バイトの引数にしたりしても ある程度の精度は残せる場合があり、高速化するときは検討しても良いと思います。 基本的にはコンバーター、ランタイムごとに グラフの最適化アルゴリズムが異なる サポートしている演算や最適化が異なる ランタイムが異なる といったことが異なる。それぞれ大きな差はつかないと思うので、 個人で使う場合においては、ONNX Runtimeのような対応しているものが多いものを使うのが良さそうです。 製品作りになると少し要件が強まり、 モデルの最適化アルゴリズ
見てわかる通り、GPUありにすると明らかに速くなっています。NanoやTinyは動画の読み込みがボトルネックになって、速度がサチっているので、参考程度です。 CPUの場合は、Flopsと反比例した速度になっていますが、GPUの場合は線形な関係になっていないのが面白かったです。GPUありのYOLOX-Xは20fpsぐらい出ているのが驚き。 このようにすればDocker上でも、GPUありのONNXを使えることがわかりました。ONNXなら環境を統一できますし、いろいろ便利そうですね。 コード main.py import argparse import onnxruntime as ort import cv2 import time import numpy as np from tqdm import tqdm from yolox_utils import preproc, multicl
基礎編 / 応用編1 / 応用編2 サイバーエージェント AI Lab の Conversational Agent Team に所属している兵頭です。今回は私が半年ほど蓄積したONNXのチューニングテクニックを全てブログに残したいと思います。皆さんが既にご存知であろう基本的なことから、かなりトリッキーなチューニングまで幅広くご紹介したいと思います。長文になりますがご容赦願います。今回は応用編1です。 このブログのメインターゲット層は「リサーチャーが実装したモデルを実環境へデプロイするタスクを有する方々」です。一部リサーチャーの方々の参考になる情報が混じっていることもあるかもしれませんが、あまり興味を引かない内容だとは思います。リサーチャーメインの組織に属しながらリサーチエンジニアの立ち位置で身を投じていますので、研究の観点の少し手前あるいは少しその先の部分を担っている立場からこのブログを
基礎編 / 応用編1 / 応用編2 サイバーエージェント AI Lab の Conversational Agent Teamに所属している兵頭です。今回は私が半年ほど蓄積したONNXのチューニングテクニックを全てブログに残したいと思います。皆さんが既にご存知であろう基本的なことから、かなりトリッキーなチューニングまで幅広くご紹介したいと思います。長文になりますがご容赦願います。 このブログのメインターゲット層は「リサーチャーが実装したモデルを実環境へデプロイするタスクを有する方々」です。一部リサーチャーの方々の参考になる情報が混じっていることもあるかもしれませんが、あまり興味を引かない内容だとは思います。リサーチャーメインの組織に属しながらリサーチエンジニアの立ち位置で身を投じていますので、研究の観点の少し手前あるいは少しその先の部分を担っている立場からこのブログを記載しているものとご認
Facebook accelerates AI development with new partners and production capabilities for PyTorch 1.0 Earlier this year, we shared a vision for making AI development faster and more interoperable. Today, during our first-ever PyTorch Developer Conference, we are announcing updates about the growing ecosystem of software, hardware, and education partners that are deepening their investment in PyTorch.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く