並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 394件

新着順 人気順

Pytorchの検索結果281 - 320 件 / 394件

  • Deploy fast.ai-trained PyTorch model in TorchServe and host in Amazon SageMaker inference endpoint | Amazon Web Services

    AWS Open Source Blog Deploy fast.ai-trained PyTorch model in TorchServe and host in Amazon SageMaker inference endpoint Over the past few years, fast.ai has become one of the most cutting-edge, open source, deep learning frameworks and the go-to choice for many machine learning use cases based on PyTorch. It has not only democratized deep learning and made it approachable to general audiences, but

      Deploy fast.ai-trained PyTorch model in TorchServe and host in Amazon SageMaker inference endpoint | Amazon Web Services
    • Introducing PyTorch Forecasting

      I am pleased to announce the open-source Python package PyTorch Forecasting. It makes time series forecasting with neural networks simple both for data science practitioners and researchers. Why is accurate forecasting so important?Forecasting time series is important in many contexts and highly relevant to machine learning practitioners. Take, for example, demand forecasting from which many use c

        Introducing PyTorch Forecasting
      • PyTorch→TensorFlowの変換 VGG16を用いた実践的なモデル移植

        「分析コンペLT会」は、KaggleやSIGNATEなど、データ分析のコンペに関連するLT(ライトニングトーク)を行う会です。rishigami氏は、TensorFlow/PyTorchのモデル移植について発表しました。全2回。後半は、PyTorchからTensorFlowへのモデル移植と重み移植の実践について。前半はこちら。 「VGG16」を題材にしてPyTorchからTensorFlowへモデル・Weightを移植する 石上氏(以下、石上):続いて実践編で、実際に「VGG16」を題材に、PyTorchからTensorFlowにモデル移植、Weight移植を行ってみます。 PyTorchに関しては、今回モデルとしてtorchvision.modelsのVGG16を用いて、TensorFlowに自前で実装して、Weightを移植することを行っていきたいと思います。 VGG16はかなり有名な

          PyTorch→TensorFlowの変換 VGG16を用いた実践的なモデル移植
        • torchtune: Easily fine-tune LLMs using PyTorch

          by Team PyTorch We’re pleased to announce the alpha release of torchtune, a PyTorch-native library for easily fine-tuning large language models. Staying true to PyTorch’s design principles, torchtune provides composable and modular building blocks along with easy-to-extend training recipes to fine-tune popular LLMs on a variety of consumer-grade and professional GPUs. torchtune supports the full f

            torchtune: Easily fine-tune LLMs using PyTorch
          • PyTorchの学習済みモデルを自由自在に書き換えたい - Qiita

            ご覧いただきありがとうございます。 Google Colaboratoryにアカウントをお持ちの方は、上の「Open in Colab」という青いボタンを押せば直接notebookをColabで開けます。ぜひ動かしてみてください。 過去の記事も含め、全てのコードをGithubで公開しています。 PyTorchにはPyTorch Image Modelsなど学習済モデルがたくさん公開されていて、これを転移学習に使うことも多いです。その際、学習済モデルを少し改造して試したい場合、どうすればいいのか。直接編集するわけではありませんが、同等の効果がある方法をご紹介します。 Using cache found in /root/.cache/torch/hub/rwightman_pytorch-image-models_master ResNet( (conv1): Conv2d(3, 64, k

              PyTorchの学習済みモデルを自由自在に書き換えたい - Qiita
            • TRTorchを使用してPyTorchの推論を高速化する | ゆるいDeep Learning

              TRTorchについて 以降は下記のリンクを元に記述しています。 https://www.nvidia.com/en-us/on-demand/session/gtcfall20-a21864/ PyTorchはpython依存しているがTorchScriptを使用するとC++からも使用可能になります。モデル静的な構造に変換します。 PyTorchのモデルをTorch Script形式に変換してC++から呼ぶ一例は下記になります。 PyTorchのモデル、TorchScriptのモデルはTensorRTで推論高速化が可能です。 TensorRTの特徴は下記になります。 なるべく低い数値精度を保ったままモデルを変換します。 レイヤー、Tensor合成をしてGPUへのカーネル命令の呼び出しをまとめています。 ハードウェアごとに最適なカーネル命令が異なるのですが、自動的に最適なカーネル命令を取得

                TRTorchを使用してPyTorchの推論を高速化する | ゆるいDeep Learning
              • Cosine DecayとWarmupを同時にこなすスケジューラー(timm)| Shikoan's ML Blog

                学習初期は徐々に学習率を上げていく「Warmup」と、学習率をなめらかに下げていく「Cosine Annealing」を1つのオプティマイザーとして楽に実装する方法を、timmライブラリを使って見ていきます。 timmについて timm(PyTorch Image Models)という便利なライブラリがあります。画像のTransformer系の論文実装で特によく使われているライブラリです。 このライブラリでは訓練済みのモデルの係数の提供の他に、Data Augmentationや学習率のスケジューラーも入っています。RandAugmentやCutMix、Mixupといった、ディープラーニングのフレームワークには組み込まれていないが、1から実装するとそこそこ大変なAugmentを使いたいときはかなり便利です。PyTorchのデフォルトのコードとも相互運用できるようになっています。 Cosin

                  Cosine DecayとWarmupを同時にこなすスケジューラー(timm)| Shikoan's ML Blog
                • GitHub - jettify/pytorch-optimizer: torch-optimizer -- collection of optimizers for Pytorch

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                    GitHub - jettify/pytorch-optimizer: torch-optimizer -- collection of optimizers for Pytorch
                  • PyTorchのFXグラフモードで量子化認識トレーニングを試す - TadaoYamaokaの開発日記

                    ディープラーニングのモデルを推論する際、通常GPUが必要である。しかし、GPUがない場合でも、モデルのパラメータを浮動小数点から整数へと変換する手法を使うことで、CPUだけでも推論処理を高速に行うことが可能である。この手法を量子化と呼ぶ。 PyTorchの量子化 PyTorchには、量子化の方法がいくつか用意されている。 実装は「Eager Mode Quantization」と「FX Graph Mode Quantization」に分かれており、「FX Graph Mode Quantization」の方が新しい実装で、「Eager Mode Quantization」ではモデルのレイヤー融合を手動で行う必要があったところが自動化されている。 また、一般的に量子化の手法として、 ダイナミック量子化 トレーニング後の量子化 量子化認識トレーニング がある。 ダイナミック量子化は、キャリブ

                      PyTorchのFXグラフモードで量子化認識トレーニングを試す - TadaoYamaokaの開発日記
                    • TorchServeを使ってAzure 環境でPyTorchモデルをAPI化してみた - Qiita

                      PyTorchで作ったモデルを簡単にAPI化できるサービス「TorchServe」が便利そうだったので、実際に触って記事にしてみました。 今回は、TorchServeの基本的な機能を使うためのチュートリアルのような内容になっております。 はじめに TorchServeはFacebookとAWSが共同で開発したオープン・ソースのサービスです。 API部分の実装を一切せずに、PyTorchで作ったモデルを簡単にAPIとして公開することが出来ます。 モデルをAPI化する際に必要になるのは、PyTorchで実装したモデル、重みファイルといった、一般的なファイルのみです。 また、推論用のAPIと併せてモデル管理、モデルの利用履歴などをするためのAPIも自動で用意してくれます。 この記事では、TorchServe Quick Startの内容をベースにしつつ、少し話を膨らませてAzure上でTorch

                        TorchServeを使ってAzure 環境でPyTorchモデルをAPI化してみた - Qiita
                      • 遅延評価と機械学習

                        最近「なぜ関数プログラミングは重要か」という文書の存在を知りました。関数型プログラミング界隈ではかなり有名な文書のようだったので私も読んでみたのですが、話題の一つとして「遅延評価がプログラムのモジュール化を可能にし、生産性を高める」という話が事例とともに説明されており、とても勉強になりました。まだまだ理解しきれてはいませんが…… 本記事では、「なぜ関数プログラミングは重要か」に触発された私が、試しに機械学習のパイプライン構築に遅延評価を適用してみた事例を紹介します。読者のターゲットは普段Pythonで機械学習に触れているデータサイエンティストの方です。本記事を通して、遅延評価を使うと機械学習の学習処理ような「停止条件を満たすまでforループを回す」系の処理をうまくモジュール化できることを実感していただければ幸いです。一方で、例えばC#のLINQやJavaのStream APIなど (私はよ

                          遅延評価と機械学習
                        • Hugging FaceのBERTモデルの推論をTorch TensorRTで高速化 | ゆるいDeep Learning

                          docker run --gpus all -it --rm -p 8887:8887 --name tensorrt nvcr.io/nvidia/pytorch:22.07-py3 下記コードを参考に実行します。 https://github.com/pytorch/TensorRT/blob/master/notebooks/Hugging-Face-BERT.ipynb Docker内にすでにコードがあるので、そのコードを使用します。 Jupyter-labを起動してコードにアクセスします。

                            Hugging FaceのBERTモデルの推論をTorch TensorRTで高速化 | ゆるいDeep Learning
                          • Pytorch Image Models (timm) | timmdocs

                            `timm` is a deep-learning library created by Ross Wightman and is a collection of SOTA computer vision models, layers, utilities, optimizers, schedulers, data-loaders, augmentations and also training/validating scripts with ability to reproduce ImageNet training results. pip install timm Or for an editable install, git clone https://github.com/rwightman/pytorch-image-models cd pytorch-image-models

                            • 結晶・分子グラフの効率的なDataLoader実装を考える - Qiita

                              はじめに 最近は結晶構造や分子構造をグラフ構造で表現し、機械学習を行うことが流行っています。特に、DFT計算でのエネルギーなどの出力をグラフニューラルネットワーク(GNN)で学習する、ニューラルネットワークポテンシャル(NNP)が非常に注目されています。ハイスループット計算により大規模なDFTデータセットの作成が可能になりつつあり、学習を行う際には結晶構造をグラフ化するコストも考える必要があります。 そこでこの記事では簡便かつ高速にpytorchのDataLoaderグラフデータを取得する方法を考えます。 必要なライブラリ ase lmdb ocpmodels (グラフ化のために、AtomsToGraphのみ使用) torch torch-geometric 実装方法 以下の3通りを試してみます。 aseのデータベースから読み込み LMDBから読み込み cifファイルから読み込み ase

                                結晶・分子グラフの効率的なDataLoader実装を考える - Qiita
                              • Python向け機械学習ライブラリ「PyTorch 1.6」がリリース

                                Python向けの、オープンソースの機械学習ライブラリPyTorchの最新版となる、「PyTorch 1.6」が7月28日(現地時間)にリリースされた。また、米MicrosoftのチームがWindows版のビルドとバイナリを維持するとともに、GitHubとPyTorch Windowsディスカッションフォーラムのコミュニティをサポートすることが、あわせて発表されている。 「PyTorch 1.6」では、数多くの新たなAPIの追加、パフォーマンス向上とプロファイリングのためのツールの搭載、分散データ並列(DDP)とリモートプロシージャコール(RPC)ベースの分散トレーニングに対する変更が含まれる。 おもな変更点としては、自動混合精度(AMP)トレーニングがネイティブでサポートされたほか、ネイティブTensorPipeサポートのテンソル対応ポイントツーポイント通信プリミティブへの追加、フロント

                                  Python向け機械学習ライブラリ「PyTorch 1.6」がリリース
                                • How I Re-implemented PyTorch for WebGPU

                                  TL;DR I’ve been working on a WebGPU optimized inference and autograd library called webgpu-torch with an API that matches PyTorch. The goal is to run neural networks in the browser at speeds comparable to a Linux workstation. Many kernels have been implemented and its design is easily extensible. It’s available on NPM now and works in both the browser and Node.js! Neural Networks in the Browser Ni

                                    How I Re-implemented PyTorch for WebGPU
                                  • PyTorch Metric LearningによるDeep Metric Learningの実践 - OPTiM TECH BLOG

                                    こんにちは、R&Dチームの河野(@ps3kono)です。 前回は深層距離学習(Deep Metric Learning)の基礎知識とアルゴリズムの進化について紹介しましたが、この記事ではPyTorch Metric Learningという深層距離学習ライブラリを紹介したいと思います。 PyTorch Metric Learningについて Deep Metric Learningの実践:Triplet lossとArcFaceを比較 おわりに 参考資料 PyTorch Metric Learningについて PyTorch Metric Learningはオープンソースライブラリであり(MIT License)、訓練・評価パイプラインに必要なコンポーネント(下図)がモジュール別で実装されたため、柔軟に組み合わせを変えられることで手軽に色々試すことができます。 Miner: サンプル選択(M

                                      PyTorch Metric LearningによるDeep Metric Learningの実践 - OPTiM TECH BLOG
                                    • Python in Visual Studio Code – April 2021 Release - Python

                                      We are pleased to announce that the April 2021 release of the Python Extension for Visual Studio Code is now available. You can download the Python extension from the Marketplace, or install it directly from the extension gallery in Visual Studio Code. If you already have the Python extension installed, you can also get the latest update by restarting Visual Studio Code. You can learn more about P

                                        Python in Visual Studio Code – April 2021 Release - Python
                                      • Amazon Elastic Inference を使用して Amazon SageMaker で PyTorch モデルの ML 推論コストを削減する | Amazon Web Services

                                        Amazon Web Services ブログ Amazon Elastic Inference を使用して Amazon SageMaker で PyTorch モデルの ML 推論コストを削減する 本日、Amazon Elastic Inference を使用して、Amazon SageMaker と Amazon EC2 の両方で PyTorch モデルの推論を加速し、推論コストを削減できるようになったことを発表します。 PyTorch は、動的なコンピューティンググラフを使用する一般的なディープラーニングフレームワークです。これにより、命令的で慣用的な Python コードを使用してディープラーニングモデルを簡単に開発できます。推論は、トレーニングされたモデルを使用して予測を行うプロセスです。PyTorch などのフレームワークを使用するディープラーニングアプリケーションの場合、推

                                          Amazon Elastic Inference を使用して Amazon SageMaker で PyTorch モデルの ML 推論コストを削減する | Amazon Web Services
                                        • GitHub - open-mmlab/mmfashion: Open-source toolbox for visual fashion analysis based on PyTorch

                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                            GitHub - open-mmlab/mmfashion: Open-source toolbox for visual fashion analysis based on PyTorch
                                          • Python向けオープンソース機械学習ライブラリ「PyTorch 2.0」が正式リリース

                                            「PyTorch 2.0」には、PyTorch Transformer APIのより高性能な実装となるAccelerated PT2 Transformerが含まれ、以前はBetter Transformerと呼ばれていたfastpath推論アーキテクチャを拡張した、scaled dot product attention(SPDA)用のカスタムカーネルアーキテクチャを使用したトレーニングと推論がサポートされている。 さらにメインAPIとして、モデルをラップしてコンパイル済みのモデルを返すtorch.compile(ベータ版)が実装された。torch.compileは、Pythonフレーム評価フックを使用してPyTorchプログラムを安全にキャプチャするTorchDynamo、PyTorchのautogradエンジンを事前の後方トレースを生成するためのトレースautodiffとしてオーバー

                                              Python向けオープンソース機械学習ライブラリ「PyTorch 2.0」が正式リリース
                                            • マイクロソフト「Visual Studio Code」用のPython機能拡張2021年2月版リリース、TensorBoardとの統合が可能に | Ledge.ai

                                              マイクロソフト「Visual Studio Code」用のPython機能拡張2021年2月版リリース、TensorBoardとの統合が可能に 米マイクロソフト(Microsoft)は現地時間2月17日、2021年2月リリースの「Visual Studio Code(VS Code)」用Python機能拡張を提供開始したと発表。 今回のリリースでは、VS Codeと「TensorBoard」を統合した。TensorBoardは「PyTorch」と「TensorFlow」の開発者がデータセットとモデルトレーニングを可視化するのに役立つとうたうデータサイエンスコンパニオンダッシュボードだ。VS Codeに直接統合したTensorBoardを使用すると、モデルの予測を確認したり、モデルのアーキテクチャを表示したり、コードのプロファイルを作成してどこがもっとも遅いかを調べたりできる。 また、「Py

                                                マイクロソフト「Visual Studio Code」用のPython機能拡張2021年2月版リリース、TensorBoardとの統合が可能に | Ledge.ai
                                              • Redirect

                                                  Redirect
                                                • Microsoft、WindowsとWSL上のGPUによる高速機械学習トレーニングを可能にするパッケージをプレビュー

                                                  米MicrosoftのWindows AIチームは、機械学習モデルをトレーニングするためのPyTorchのバックエンドとして使えるようにすべく、畳み込みニューラルネットワーク(CNNS)のサポートを提供する、PyTorch-DirectMLパッケージのプレビューリリース提供を、10月21日(現地時間)に開始した。 今回、発表されたプレビューリリースは、WindowsおよびWindows Subsystem for Linux(WSL)上のDirectX12 GPUによって、PyTorchの高速機械学習トレーニングを実現するための、最初のステップとなる。 PyTorch-DirectMLパッケージでは、DirectML APIとPyTorch Tensorプリミティブを呼び出す「DML」デバイスを導入することで、DirectMLがPyTorchフレームワークと統合される。DirectMLオペ

                                                    Microsoft、WindowsとWSL上のGPUによる高速機械学習トレーニングを可能にするパッケージをプレビュー
                                                  • Accelerating Generative AI with PyTorch: Segment Anything, Fast

                                                    by Team PyTorch This post is the first part of a multi-series blog focused on how to accelerate generative AI models with pure, native PyTorch. We are excited to share a breadth of newly released PyTorch performance features alongside practical examples of how these features can be combined to see how far we can push PyTorch native performance. As announced during the PyTorch Developer Conference

                                                      Accelerating Generative AI with PyTorch: Segment Anything, Fast
                                                    • 最近のMetric Learningの始め方(コンペを見据えて) - Qiita

                                                      Kaggle Advent Calendar 3日目の記事です。 今回はKaggleなどのコンペで Metric Learning を試すときにとりあえず最初に実装するコードをまとめました。 UMAPを使ったembeddingの可視化とか faiss を使った検索とかはこの記事で扱ってないです。 1. Metric Learning って何? 予測値じゃなくて特徴量間の距離に注目して学習する方法 同じクラス内ではなるべく近い距離になるように 違うクラス間ではなるべく遠い距離になるように もっと詳しくしたい人は Qiita 内でもいい記事たくさんあるのでどうぞ。 モダンな深層距離学習 (deep metric learning) 手法: SphereFace, CosFace, ArcFace #DeepLearning - Qiita Softmax関数をベースにした Deep Metri

                                                        最近のMetric Learningの始め方(コンペを見据えて) - Qiita
                                                      • pytorch2 + ROCm で RWKV(LLM Chatbot) と Wisper 動作確認メモ

                                                        pytorch 2.0 になって ROCm 対応がそれなりにきちんとサポートされたようです. ROCm PyTorch のビルドにチャレンジしてから 1 年が経ちました(2019 年 7 月 27 日) (2019 年 9 月 24 日追記) 2018 年の使い物にならないレヴェルから, 5 年ほど経ち, やっと基本的には使えるようになってきた感じでしょうか... 動作確認します! 環境 RX6800(RDNA2) Radeon VII(Vega20) も OK だった! Ubuntu 20.04 HWE kernel(5.15.x) ROCm 5.3.4 ROCm 関連は からたどれる document 参考に一式入れておきます. 既存 ROCm がインストールされている場合は, amdgpu-uninstall で一度パッケージ一式削除しておく必要があります. そうしないと上書きインス

                                                          pytorch2 + ROCm で RWKV(LLM Chatbot) と Wisper 動作確認メモ
                                                        • GitHub - yukinaga/lecture_pytorch: YouTubeのライブ講義「【Live!人工知能 】PyTorchで実装するディープラーニング」、およびUdemyコース「PyTorchで実装するディープラーニング」で使用する教材です。

                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                            GitHub - yukinaga/lecture_pytorch: YouTubeのライブ講義「【Live!人工知能 】PyTorchで実装するディープラーニング」、およびUdemyコース「PyTorchで実装するディープラーニング」で使用する教材です。
                                                          • Optimizing with constraints: reparametrization and geometry.

                                                            When training machine learning models, and deep networks in particular, we typically use gradient-based methods. But if we require the weights to satisfy some constraints, things quickly get more complicated. Some of the most popular strategies for handling constraints, while seemingly very different at first sight, are deeply connected. In this post, we will explore these connections and demonstr

                                                              Optimizing with constraints: reparametrization and geometry.
                                                            • https://tigress-web.princeton.edu/~jdh4/PyTorchPerformanceTuningGuide_GTC2021.pdf

                                                              • 機械学習・ディープラーニング、ITの実装スキル学ぶ方法(と私の場合)

                                                                ●機械学習・ディープラーニングの実装スキル ●その他、ITスキル を、 自己学習して身につける方法について、 私自身の経験と、現在の最新の情報から紹介します。 2021年2月25日 理系ナビ DLエンジニアトレーニングプログラムRead less

                                                                  機械学習・ディープラーニング、ITの実装スキル学ぶ方法(と私の場合)
                                                                • dlshogiのPyTorch Lightning対応 - TadaoYamaokaの開発日記

                                                                  dlshogiの学習は、PyTorchを使用して、モデルの訓練処理を独自に実装していた。 マルチGPUによる分散学習に対応させようと考えているが、独自に実装するより、PyTorch lightningに対応させた方が実装が楽になるため、dlshogiをPyTorch Lightningに対応させたいと考えている。 まずは、訓練の基本部分の実装を行った。 PyTorch Lightning CLI ボイラープレートをできるだけ削除するため、PyTorch Lightning CLIを使用して実装する。 PyTorch Lightning CLIを使用すると、コマンド引数のパース処理など含めて自動で行ってくれる。 起動部分の処理は以下のように記述するだけでよい。 def main(): LightningCLI(Model, DataModule) if __name__ == "__main

                                                                    dlshogiのPyTorch Lightning対応 - TadaoYamaokaの開発日記
                                                                  • OpenVINOで各フレームワーク(ONNX、TensorFlow、TFLite、PaddlePaddle)の重みを読み込んで推論

                                                                    ただし、PyTorchさん、あなたはダメです。直接読み込めません👻 今回のサンプルは、Google Colaboratory上でお試しします。 いつの間にか、Colaboratory上でのOpenVINOインストール・実行も簡単になってて、助かります。 個人的には、PaddlePaddleの重みを直接読み込めるのが良い感じです。 ノートブックは以下のリポジトリで公開しています。 試してみたい方は「Open in Colab」からノートブックを開いて、上から順に実行していってください。 以降は処理の簡単な説明です。 パッケージインストール OpenVINOのインストールです。 今回のサンプルを動かすだけであれば、pipインストール1行で済みます。

                                                                      OpenVINOで各フレームワーク(ONNX、TensorFlow、TFLite、PaddlePaddle)の重みを読み込んで推論
                                                                    • Introducing Hidet: A Deep Learning Compiler for Efficient Model Serving

                                                                      Join us in Silicon Valley September 18-19 at the 2024 PyTorch Conference. Learn more. Learn Get Started Run PyTorch locally or get started quickly with one of the supported cloud platforms Tutorials Whats new in PyTorch tutorials Learn the Basics Familiarize yourself with PyTorch concepts and modules PyTorch Recipes Bite-size, ready-to-deploy PyTorch code examples Intro to PyTorch - YouTube Series

                                                                        Introducing Hidet: A Deep Learning Compiler for Efficient Model Serving
                                                                      • (ソースコードメモ)PyTorchでのCUDA側並列処理 - Qiita

                                                                        はじめに PyTorchのCUDAプログラミングに絞って並列処理を見てみる。なお、CPU側の並列処理は別資料に記載済みである。ここでは、 C++の拡張仕様であるCUDAの基礎知識 カーネルレベルの並列処理 add関数の実装 im2col関数の実装 ストリームレベルの並列処理 DistributedDataParallelの呼び出し処理の実装 について説明する。 おことわり PyTorchでは、ATen配下で演算処理を行っている。しかし、その前身であるTorchの資産を引き継いでいるため、THC(TorcH Cuda)のTensorからATen/nativeに書き換え中である。古いTHCTensor部分は参考資料として引用しておくが、言及はしない。また、この書き換え作業は1年以上継続中でありゆっくりと進んでいる。あと一年以上はかかるのではと思う。 BLAS(行列演算)やcudnn(深層学習演

                                                                          (ソースコードメモ)PyTorchでのCUDA側並列処理 - Qiita
                                                                        • Introducing PyTorch-DirectML: Train your machine learning models on any GPU - Windows AI Platform

                                                                          The Windows AI team is excited to announce the first preview of DirectML as a backend to PyTorch for training ML models! This release is our first step towards unlocking accelerated machine learning training for PyTorch on any DirectX12 GPU on Windows and the Windows Subsystem for Linux (WSL). In order for you to take advantage of DirectML within PyTorch, today we are releasing a preview PyTorch-D

                                                                            Introducing PyTorch-DirectML: Train your machine learning models on any GPU - Windows AI Platform
                                                                          • AITemplate: Unified inference engine on GPUs from NVIDIA and AMD

                                                                            Faster, more flexible inference on GPUs using AITemplate, a revolutionary new inference engine GPUs play an important role in the delivery of the compute needed for deploying AI models, especially for large-scale pretrained models in computer vision, natural language processing, and multimodal learning. Currently, AI practitioners have very limited flexibility when choosing a high-performance GPU

                                                                              AITemplate: Unified inference engine on GPUs from NVIDIA and AMD
                                                                            • Writing better code with pytorch and einops

                                                                              Writing a better code with pytorch and einops Rewriting building blocks of deep learning Now let's get to examples from real world. These code fragments taken from official tutorials and popular repositories. Learn how to improve code and how einops can help you. Left: as it was, Right: improved version # start from importing some stuff import torch import torch.nn as nn import torch.nn.functional

                                                                                Writing better code with pytorch and einops
                                                                              • 【PyTorch】torchvision.transformsを使って、学習時のデータ拡張(Data Augmentation)を行う

                                                                                PyTorchにおける学習時のデータ拡張の方法について見ていきます。 データ拡張を行うためのtorchvision.transformsについて説明した後に、学習時のコードのどこに追加すればデータ拡張が行われるのか説明します。

                                                                                  【PyTorch】torchvision.transformsを使って、学習時のデータ拡張(Data Augmentation)を行う
                                                                                • ConditionalGAN(Pytorch) - Qiita

                                                                                  概要 CondidionalGANは条件付き敵対的生成ネットワークと呼ばれます 通常のGANでは生成されるデータはランダムとなっています。 手書き数字の例でいうと0が生成されるか1が生成されるかなどはランダムに決定され、数字を指定しての作成は難しいです。 そこで、潜在変数と本物画像、偽物画像のそれぞれに現在はなんのデータに関しての学習を行っているかを教えながら学習することで、生成したいデータを指定することができるようになります ラベリング 現在なんのデータに関しての学習を行っているかを教える方法は以下の通りです。 潜在変数 潜在変数にOne-Hotエンコーディングでラベリングしたベクトルを結合する 生成画像、本物画像 One-Hotベクトルを画像サイズに拡大したクラス数分のOne-Hot画像をチャンネル方向に結合する。 One-Hot画像は、すべての要素が1の画像が一枚で残りはすべての要素

                                                                                    ConditionalGAN(Pytorch) - Qiita

                                                                                  新着記事