並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 429件

新着順 人気順

Pytorchの検索結果281 - 320 件 / 429件

  • Flash-Decoding for long-context inference

    Micro-benchmark of the multi-head attention, run-time in us. Flash-Decoding achieves almost constant run-time as the sequence length scales to up to 64k. The up to 8x speedup end-to-end measured earlier is made possible because the attention itself is up to 50x faster than FlashAttention. Up until sequence length 32k, the attention time is roughly constant, because Flash-Decoding manages to fully

      Flash-Decoding for long-context inference
    • ディープラーニングのモデル軽量化ライブラリDistiller - Qiita

      はじめに ※このライブラリはGPUの使用を前提としているのでご注意ください※ 主はディープラーニングに関してド素人ですので, 誤りがある場合は優しく教えて頂けると幸いです。 Distillerとは Distillerとは, DeepLearningのモデルを軽量化するアルゴリズムを備えたintelがPyTorchベースで作成したライブラリです。モデルの軽量化の主な例としては, 量子化(Quantization), 枝刈り(Pruning), 蒸留(Distillation)など様々なものがあり, これらを簡単に使えるのがDistillerです。 さらに, チュートリアルではTensorBoardと連帯して学習の状況を確認できる機能までついていた(感謝感激) モデル軽量化について詳しく書かれたサイトがこちら https://laboro.ai/column/%E3%83%87%E3%82%A

        ディープラーニングのモデル軽量化ライブラリDistiller - Qiita
      • PyTorch 1.10の新機能「CUDA Graphs」のパフォーマンスを測定してみる - まったり勉強ノート

        はじめに 10/21にPyTorch 1.10がリリースされ、今回も面白そうな機能が追加されました。個人的には楽しみにしていた「CUDA Graphs」のAPIのベータ版が追加されたということで早速試してみました。今回はこの試した結果の記事になります。 CUDA Graphsとは? CUDA GraphsはCUDA 10で追加されたCUDAの機能の一つで、複数のCUDA Kernelの実行にかかるオーバーヘッドを減らすための機能です。 基本的には依存関係表すことができるグラフにCUDA Kernelを登録して、依存関係を考慮して順番にCUDA Kernelを実行するという仕組みです。このCUDA Graphsを通して実行すると普通にCUDA Knernelを実行するのに比べてCUDA Kernelの実行オーバーヘッドを減らすことができます。 詳しくはNVIDIA Developer Blo

        • Pytorch tensor と numpy ndarray の変換 - Pythonいぬ

          Pytorch tensor から numpy ndarray への変換とその逆変換についてまとめる。単純にtorch.from_numpy(x)とx.detach().numpy()を覚えておけばよいので、その使い方を示しておく。 すぐ使いたい場合は以下 numpy to tensor x = torch.from_numpy(x.astype(np.float32)).clone() tensor to numpy x = x.to('cpu').detach().numpy().copy() pytorchでは変数の型としてほとんどtorch.floatを使うので、基本的にはnumpyでnp.float32にキャストしてからtorch tensorへ変換する。また、torch tensor と numpy ndarray はメモリを共有しているようなので、clone()やcopy()

            Pytorch tensor と numpy ndarray の変換 - Pythonいぬ
          • GitHub - robvanvolt/DALLE-datasets: This is a summary of easily available datasets for generalized DALLE-pytorch training.

            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

              GitHub - robvanvolt/DALLE-datasets: This is a summary of easily available datasets for generalized DALLE-pytorch training.
            • PyTorch for Deep Learning: A Quick Guide for Starters

              In 2019, the war for ML frameworks has two main contenders: PyTorch and TensorFlow. There is a growing adoption of PyTorch by researchers and students due to ease of use, while in industry, Tensorflow is currently still the platform of choice. Some of the key advantages of PyTorch are: Simplicity: It is very pythonic and integrates easily with the rest of the Python ecosystem. It is easy to learn,

                PyTorch for Deep Learning: A Quick Guide for Starters
              • Segmentation Models Pytorch の BackBone をカスタムする方法

                Segmentation Models Pytorch の バックボーン(Backbone) を設定したいように変更する時の方法と注意点 はじめに ディープラーニングのための自動微分をしてくれる PyTroch において、セグメンテーションのタスクのモデルを簡単に提供してくれるのが Segmentation Models Pytorchです。 モデル作成の初学者から Kaggle などのコンペ、業務でも仕様できるくらい便利なライブラリーです。 もう既にバックボーンとなるエンコーダーは自由に選べるほど豊富にあります。 しかしながら、最新のモデルや3Dカスタムなどをする時に簡単にカスタムする方法がわからなかったので備忘録のつもりで例を記載しております。 実装 Python 実装を記載します。 基本のおさらい import segmentation_models_pytorch as smp m

                  Segmentation Models Pytorch の BackBone をカスタムする方法
                • GitHub - pytorch/torchrec: Pytorch domain library for recommendation systems

                  Parallelism primitives that enable easy authoring of large, performant multi-device/multi-node models using hybrid data-parallelism/model-parallelism. The TorchRec sharder can shard embedding tables with different sharding strategies including data-parallel, table-wise, row-wise, table-wise-row-wise, column-wise, table-wise-column-wise sharding. The TorchRec planner can automatically generate opti

                    GitHub - pytorch/torchrec: Pytorch domain library for recommendation systems
                  • PyTorch Lightning 1.0: From 0–600k

                    We were hard at work in the last couple of months fine-tuning our API, polishing our docs, recording tutorials, and it’s finally time to share with you all V1.0.0 of PyTorch Lightning. Want the lightning answer to scaling models on the cloud? continue reading. The Lightning DNAAI research has evolved much faster than any single framework can keep up with. The field of deep learning is constantly e

                      PyTorch Lightning 1.0: From 0–600k
                    • Pytorchにおけるモデル保存の使い分け - tkherox blog

                      はじめに モデル保存パターン 各パターンの解説 state_dictのモデル保存 entireのモデル保存 TorchScriptのモデル保存 べストな保存方法 まとめ はじめに TorchServeを利用してサービングを実施する際にモデルの保存方法についていくつかパターンがあり,TorchServeで保存したモデルを読み込む際にうまく動作しないといった事があったのでしっかり違いを把握しようと思ってこの記事を書いています.この記事を読んでくださっている人の中にもよく分からずに何となくPytorchにおけるモデル保存を実施している人もいるかと思いますのでそう言った方の参考になればと思います.ちなみにPytorchのバージョンは1.7.0を前提として話を進めます. モデル保存パターン まず保存パターンについて説明していきます. 公式では大きく2つのパターンでのモデル保存を解説しています.また,

                        Pytorchにおけるモデル保存の使い分け - tkherox blog
                      • GitHub - NVIDIA-Merlin/Transformers4Rec: Transformers4Rec is a flexible and efficient library for sequential and session-based recommendation and works with PyTorch.

                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                          GitHub - NVIDIA-Merlin/Transformers4Rec: Transformers4Rec is a flexible and efficient library for sequential and session-based recommendation and works with PyTorch.
                        • General Information

                          This document provides technical information for migration from Chainer to PyTorch. General InformationConcepts and components in both frameworksArray LibraryChainer uses NumPy/CuPy (xp.ndarray) as an array library, and wraps them as chainer.Variable to support autograd. Similarly, PyTorch uses ATen (at::Tensor (C++)) as an array library ("tensor library" in PyTorch terms), and wraps it as torch::

                          • GitHub - Lightning-AI/LitServe: Lightning-fast serving engine for AI models. Flexible. Easy. Enterprise-scale.

                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                              GitHub - Lightning-AI/LitServe: Lightning-fast serving engine for AI models. Flexible. Easy. Enterprise-scale.
                            • Amazon.co.jp: 物体検出とGAN、オートエンコーダー、画像処理入門 PyTorch/TensorFlow2による発展的・実装ディープラーニング: チーム・カルポ: 本

                                Amazon.co.jp: 物体検出とGAN、オートエンコーダー、画像処理入門 PyTorch/TensorFlow2による発展的・実装ディープラーニング: チーム・カルポ: 本
                              • Captum · Model Interpretability for PyTorch

                                import numpy as np import torch import torch.nn as nn from captum.attr import IntegratedGradients class ToyModel(nn.Module): def __init__(self): super().__init__() self.lin1 = nn.Linear(3, 3) self.relu = nn.ReLU() self.lin2 = nn.Linear(3, 2) # initialize weights and biases self.lin1.weight = nn.Parameter(torch.arange(-4.0, 5.0).view(3, 3)) self.lin1.bias = nn.Parameter(torch.zeros(1,3)) self.lin2.

                                  Captum · Model Interpretability for PyTorch
                                • PyTorchのEmbeddingとEmbeddingBag - Qiita

                                  概要 PyTorchの自然言語処理をしていると、EmbeddingBagというやつが出てくるので、これは何?という話。 超初歩的な話なので、詳しい方は見なくて大丈夫です。 時間がない人向け Embedding: Outputのshape=$(InputLength \times EmbeddingDim)$ $$ Output = x_{one-hot} \cdot W $$ EmbeddingBag: Outputのshape=$(EmbeddingDim)$ $$ Output = sum_i(x_{one-hot} \cdot W) $$ 解説 まずは何が行われているのかを簡単に解説します。 変数の定義 \begin{align} & Input \quad x: \quad(InputLength)\\ & Embedding Weight \quad W: \quad(Vocab

                                    PyTorchのEmbeddingとEmbeddingBag - Qiita
                                  • PyTorch のオープンソースモデルサーバー、TorchServe を発表 | Amazon Web Services

                                    Amazon Web Services ブログ PyTorch のオープンソースモデルサーバー、TorchServe を発表 PyTorch は、ディープラーニングで最も人気のあるオープンソースライブラリの 1 つです。開発者と研究者は、モデルの構築とトレーニングにおいて享受できる柔軟性を特に重宝しています。しかし、これはストーリーの半分にすぎず、本番環境でのモデルのデプロイと管理は、機械学習プロセスの最も困難な部分であることが多々あります。オーダーメイドの予測 API の構築、それらのスケーリング、保護などがその厄介な部分です。 モデルのデプロイプロセスを簡略化する 1 つの方法は、モデルサーバー、つまり、本番環境で機械学習予測を行うために特別に設計された既製のウェブアプリケーションを使用することです。モデルサーバーを使用すると、1 つまたは複数のモデルを簡単に読み込むことができ、スケー

                                      PyTorch のオープンソースモデルサーバー、TorchServe を発表 | Amazon Web Services
                                    • JAXとPyTorchで勾配法とニュートン法を試す - HELLO CYBERNETICS

                                      はじめに 逐次更新による最適化 大枠 勾配法 数式 勾配法コード例 ニュートン法 数式 ニュートン法のコード例 はじめに 最近、しっかり学ぶ数理最適化を購入しました。 しっかり学ぶ数理最適化 モデルからアルゴリズムまで (KS情報科学専門書) 作者:梅谷 俊治発売日: 2020/10/26メディア: 単行本(ソフトカバー) 1章→3章と読んでいく中で、元々馴染みの深い連続最適化の極々基本的な手法である勾配法とニュートン法を試してみました。実装はJAXを使っています。こいつは現状、最高の自動微分ライブラリだと思っております(深層学習ライブラリという観点ではPyTorchの方が今の所使いやすい)。 普通、機械学習では二次微分なんてパラメータが多すぎてまともに計算できる見込みがないので、純粋なニュートン法なんて絶対に使わないのですが、その圧倒的な性能の高さを確認し、兎にも角にも勾配法の弱さを確認

                                        JAXとPyTorchで勾配法とニュートン法を試す - HELLO CYBERNETICS
                                      • Running PyTorch on the M1 GPU

                                        May 18, 2022 by Sebastian Raschka Today, PyTorch officially introduced GPU support for Apple’s ARM M1 chips. This is an exciting day for Mac users out there, so I spent a few minutes tonight trying it out in practice. In this short blog post, I will summarize my experience and thoughts with the M1 chip for deep learning tasks. My M1 Experience So Far Back at the beginning of 2021, I happily sold m

                                          Running PyTorch on the M1 GPU
                                        • 5月新刊情報『PyTorchとfastaiではじめるディープラーニング』

                                          『PyTorchとfastaiではじめるディープラーニング ―エンジニアのためのAIアプリケーション開発』 Jeremy Howard, Sylvain Gugger 著、中田 秀基 訳 2021年5月27日発売予定 576ページ(予定) ISBN978-4-87311-942-7 定価4,180円(税込) 本書は、ディープラーニングのトレーニングコースを提供するサイトfast.aiの創始者らが、PyTorchとその上に構築されたライブラリfastaiを用いてディープラーニングを行う方法を解説するものです。特別な訓練や数学の深い知識がなくても実践できるように、平易な言葉と数多くの図でていねいに説明しています。本書で扱うトピックは非常に幅広く、コンピュータビジョン、自然言語処理、協調フィルタリングによるモデルの訓練、精度、速度、信頼性の向上、実用アプリケーションの作成のほか、データ倫理、性能

                                            5月新刊情報『PyTorchとfastaiではじめるディープラーニング』
                                          • GitHub - GuyTevet/motion-diffusion-model: The official PyTorch implementation of the paper "Human Motion Diffusion Model"

                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                              GitHub - GuyTevet/motion-diffusion-model: The official PyTorch implementation of the paper "Human Motion Diffusion Model"
                                            • Speeding up TensorFlow, MXNet, and PyTorch inference with Amazon SageMaker Neo | Amazon Web Services

                                              AWS Machine Learning Blog Speeding up TensorFlow, MXNet, and PyTorch inference with Amazon SageMaker Neo Various machine learning (ML) optimizations are possible at every stage of the flow during or after training. Model compiling is one optimization that creates a more efficient implementation of a trained model. In 2018, we launched Amazon SageMaker Neo to compile machine learning models for man

                                                Speeding up TensorFlow, MXNet, and PyTorch inference with Amazon SageMaker Neo | Amazon Web Services
                                              • PytorchのDataLoaderの高速化のコツについてすこし解説

                                                DataLoaderクラスの概要 DataLoaderクラスは、PytorchのDatasetクラスを用いて、データをロードしてミニバッチを作成してくれるクラスです。非常に単純なクラスに見えるのですが、ドキュメントを見る感じだと、引数が多くて、意外に奥が深そうです。 本記事では、DataLoaderのマルチプロセスの処理など、実行速度に関係する部分を解説していきます。 DataLoaderでデータをロードする場合、データセットをどこか(Datasetの実装によるが主にディスク)からロードして、色々な処理をして、ミニバッチを作成する処理の流れがよくあるパターンです。DataLoaderがミニバッチを作成するとき、Dataset内でされる処理の多さによっては、結構長い処理がなされます。そのため、DataLoaderには、num_workersという引数を設定できるようになっていて、設定したワー

                                                  PytorchのDataLoaderの高速化のコツについてすこし解説
                                                • GitHub - DeepGraphLearning/torchdrug: A powerful and flexible machine learning platform for drug discovery

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - DeepGraphLearning/torchdrug: A powerful and flexible machine learning platform for drug discovery
                                                  • Pytorchなら同じGPUで2倍早い学習ができるっていったんだよ! - Qiita

                                                    DNNを学習・推論するにはGPUはほぼ必須ですが高いですよね。。 できるだけ安いGPUでも早く学習が終わると助かりますが近年のDNNは巨大化する一方。。 そこでFP16などの技術で高速化すると同じGPUでも2倍早く学習が終わります! このような技術を使うことで2倍性能のいいGPUを使うのと同義になるのでお財布に優しいですね。。もちろん仕事で使う場合はコストが下がるのでありがたいです。 できらぁ!と言ってしまったので頑張っていきましょう。 (追記:実験では主にRTX2080tiを使用しました。) tldr; Pytorchのモデル、tensorをFP16化することで学習と推論を高速化。 またnvidia社のapexライブラリでもかんたんにFP16化。 推論高速化ツールのTensorRTも試し、推論を高速化。 CIFAR10と物体検出でベンチマーク。 - 画像認識では2倍高速化できました。 -

                                                      Pytorchなら同じGPUで2倍早い学習ができるっていったんだよ! - Qiita
                                                    • Tensor Numpy PIL image 相互変換【PyTorch】 - Qiita

                                                      目的 PyTorchで画像等を扱っていると、Tensor、Numpy、PIL imageのそれぞれの形式に変換したい場合が多々ある。 ここでは、備忘録としてそれぞれの形式に対する相互変換方法を示す。 各データ形式の特徴 Tensor:学習モデルへの入力や中間層での計算に用いる。torchvisionを用いると各種画像処理が楽に行える。 Numpy:Numpyの機能はほぼTensorでも使用可能だが、matplotlibでデータを扱いたい場合に変換が必要。 PIL:画像の読み込みや書き出し、簡単な画像処理などを行える。 各種変換方法 Tensor ↔ Numpy import torch import numpy as np # tensor -> numpy t = torch.zeros(3,128,128) n = t.to('cpu').detach().numpy() # nump

                                                        Tensor Numpy PIL image 相互変換【PyTorch】 - Qiita
                                                      • Deploy fast.ai-trained PyTorch model in TorchServe and host in Amazon SageMaker inference endpoint | Amazon Web Services

                                                        AWS Open Source Blog Deploy fast.ai-trained PyTorch model in TorchServe and host in Amazon SageMaker inference endpoint Over the past few years, fast.ai has become one of the most cutting-edge, open source, deep learning frameworks and the go-to choice for many machine learning use cases based on PyTorch. It has not only democratized deep learning and made it approachable to general audiences, but

                                                          Deploy fast.ai-trained PyTorch model in TorchServe and host in Amazon SageMaker inference endpoint | Amazon Web Services
                                                        • PyTorchのDataLoaderが遅い - Qiita

                                                          PyTorchでは、データセットからミニバッチを取り出すのにDataLoader(torch.utils.data.DataLoader)がよく用いられるが、大きなサイズのデータを用いて実験しているときに、PyTorchのDataLoaderを用いると、とても時間がかかることがわかった。比較のためにデータセットからミニバッチを取り出すイタレータを自作し試してみたが、それと比べてもPytorchのDataLoaderはかなり遅いことがわかった。特にこれは、大きなサイズのデータを用いている時にはボトルネックになりうると思われる。 [追記:2020/03/23] 遅い原因はDataLoaderにデフォルトで使われているBatchSamplerであるというコメントをいただきました。詳しくはコメントをご覧ください。 設定 以下では、データ数が100万のlabelとtargetからバッチサイズ1万のミ

                                                            PyTorchのDataLoaderが遅い - Qiita
                                                          • Introducing PyTorch Forecasting

                                                            I am pleased to announce the open-source Python package PyTorch Forecasting. It makes time series forecasting with neural networks simple both for data science practitioners and researchers. Why is accurate forecasting so important?Forecasting time series is important in many contexts and highly relevant to machine learning practitioners. Take, for example, demand forecasting from which many use c

                                                              Introducing PyTorch Forecasting
                                                            • PyTorch→TensorFlowの変換 VGG16を用いた実践的なモデル移植

                                                              「分析コンペLT会」は、KaggleやSIGNATEなど、データ分析のコンペに関連するLT(ライトニングトーク)を行う会です。rishigami氏は、TensorFlow/PyTorchのモデル移植について発表しました。全2回。後半は、PyTorchからTensorFlowへのモデル移植と重み移植の実践について。前半はこちら。 「VGG16」を題材にしてPyTorchからTensorFlowへモデル・Weightを移植する 石上氏(以下、石上):続いて実践編で、実際に「VGG16」を題材に、PyTorchからTensorFlowにモデル移植、Weight移植を行ってみます。 PyTorchに関しては、今回モデルとしてtorchvision.modelsのVGG16を用いて、TensorFlowに自前で実装して、Weightを移植することを行っていきたいと思います。 VGG16はかなり有名な

                                                                PyTorch→TensorFlowの変換 VGG16を用いた実践的なモデル移植
                                                              • PyTorchはじめました(Object Detection) - Design x Verification

                                                                べ、べつに TensorFlowを嫌いになったわけじゃないんだからね!!! ただ、NNgenに入力するために、onnxモデル作らないといけなくて公式でサポートしてるやつがいいなぁとか思ってないし Tutorial見てて、TF Hubに飛ぶんかい!!!ってツッコミどころがあったり おっ!PyTorchだとめっちゃ簡単に理解できるし、後から色々カスタマイズ出来るじゃん!!! とか思ってないし、ほんとただのキマグレンです。 っということで、PyTorchの公式だと Segmentationだったのでちょっと修正して Object Detectionで動かしてみました。 TorchVision Object Detection Finetuning Tutorial - PyTorch 環境は、Google Colabにて実行して確認してます。(必要であれば、Notebook公開します。) 公式T

                                                                  PyTorchはじめました(Object Detection) - Design x Verification
                                                                • torchtune: Easily fine-tune LLMs using PyTorch

                                                                  by Team PyTorch We’re pleased to announce the alpha release of torchtune, a PyTorch-native library for easily fine-tuning large language models. Staying true to PyTorch’s design principles, torchtune provides composable and modular building blocks along with easy-to-extend training recipes to fine-tune popular LLMs on a variety of consumer-grade and professional GPUs. torchtune supports the full f

                                                                    torchtune: Easily fine-tune LLMs using PyTorch
                                                                  • PyTorchの学習済みモデルを自由自在に書き換えたい - Qiita

                                                                    import torch model = torch.hub.load('rwightman/pytorch-image-models:master', 'resnet18', pretrained=True) print(model) Using cache found in /root/.cache/torch/hub/rwightman_pytorch-image-models_master ResNet( (conv1): Conv2d(3, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False) (bn1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True, track_running_stats=True) (act1): ReLU(inpla

                                                                      PyTorchの学習済みモデルを自由自在に書き換えたい - Qiita
                                                                    • TRTorchを使用してPyTorchの推論を高速化する | ゆるいDeep Learning

                                                                      TRTorchについて 以降は下記のリンクを元に記述しています。 https://www.nvidia.com/en-us/on-demand/session/gtcfall20-a21864/ PyTorchはpython依存しているがTorchScriptを使用するとC++からも使用可能になります。モデル静的な構造に変換します。 PyTorchのモデルをTorch Script形式に変換してC++から呼ぶ一例は下記になります。 PyTorchのモデル、TorchScriptのモデルはTensorRTで推論高速化が可能です。 TensorRTの特徴は下記になります。 なるべく低い数値精度を保ったままモデルを変換します。 レイヤー、Tensor合成をしてGPUへのカーネル命令の呼び出しをまとめています。 ハードウェアごとに最適なカーネル命令が異なるのですが、自動的に最適なカーネル命令を取得

                                                                        TRTorchを使用してPyTorchの推論を高速化する | ゆるいDeep Learning
                                                                      • Cosine DecayとWarmupを同時にこなすスケジューラー(timm)| Shikoan's ML Blog

                                                                        学習初期は徐々に学習率を上げていく「Warmup」と、学習率をなめらかに下げていく「Cosine Annealing」を1つのオプティマイザーとして楽に実装する方法を、timmライブラリを使って見ていきます。 timmについて timm(PyTorch Image Models)という便利なライブラリがあります。画像のTransformer系の論文実装で特によく使われているライブラリです。 このライブラリでは訓練済みのモデルの係数の提供の他に、Data Augmentationや学習率のスケジューラーも入っています。RandAugmentやCutMix、Mixupといった、ディープラーニングのフレームワークには組み込まれていないが、1から実装するとそこそこ大変なAugmentを使いたいときはかなり便利です。PyTorchのデフォルトのコードとも相互運用できるようになっています。 Cosin

                                                                          Cosine DecayとWarmupを同時にこなすスケジューラー(timm)| Shikoan's ML Blog
                                                                        • GitHub - jettify/pytorch-optimizer: torch-optimizer -- collection of optimizers for Pytorch

                                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                            GitHub - jettify/pytorch-optimizer: torch-optimizer -- collection of optimizers for Pytorch
                                                                          • PyTorchのFXグラフモードで量子化認識トレーニングを試す - TadaoYamaokaの開発日記

                                                                            ディープラーニングのモデルを推論する際、通常GPUが必要である。しかし、GPUがない場合でも、モデルのパラメータを浮動小数点から整数へと変換する手法を使うことで、CPUだけでも推論処理を高速に行うことが可能である。この手法を量子化と呼ぶ。 PyTorchの量子化 PyTorchには、量子化の方法がいくつか用意されている。 実装は「Eager Mode Quantization」と「FX Graph Mode Quantization」に分かれており、「FX Graph Mode Quantization」の方が新しい実装で、「Eager Mode Quantization」ではモデルのレイヤー融合を手動で行う必要があったところが自動化されている。 また、一般的に量子化の手法として、 ダイナミック量子化 トレーニング後の量子化 量子化認識トレーニング がある。 ダイナミック量子化は、キャリブ

                                                                              PyTorchのFXグラフモードで量子化認識トレーニングを試す - TadaoYamaokaの開発日記
                                                                            • TorchServeを使ってAzure 環境でPyTorchモデルをAPI化してみた - Qiita

                                                                              PyTorchで作ったモデルを簡単にAPI化できるサービス「TorchServe」が便利そうだったので、実際に触って記事にしてみました。 今回は、TorchServeの基本的な機能を使うためのチュートリアルのような内容になっております。 はじめに TorchServeはFacebookとAWSが共同で開発したオープン・ソースのサービスです。 API部分の実装を一切せずに、PyTorchで作ったモデルを簡単にAPIとして公開することが出来ます。 モデルをAPI化する際に必要になるのは、PyTorchで実装したモデル、重みファイルといった、一般的なファイルのみです。 また、推論用のAPIと併せてモデル管理、モデルの利用履歴などをするためのAPIも自動で用意してくれます。 この記事では、TorchServe Quick Startの内容をベースにしつつ、少し話を膨らませてAzure上でTorch

                                                                                TorchServeを使ってAzure 環境でPyTorchモデルをAPI化してみた - Qiita
                                                                              • 遅延評価と機械学習

                                                                                最近「なぜ関数プログラミングは重要か」という文書の存在を知りました。関数型プログラミング界隈ではかなり有名な文書のようだったので私も読んでみたのですが、話題の一つとして「遅延評価がプログラムのモジュール化を可能にし、生産性を高める」という話が事例とともに説明されており、とても勉強になりました。まだまだ理解しきれてはいませんが…… 本記事では、「なぜ関数プログラミングは重要か」に触発された私が、試しに機械学習のパイプライン構築に遅延評価を適用してみた事例を紹介します。読者のターゲットは普段Pythonで機械学習に触れているデータサイエンティストの方です。本記事を通して、遅延評価を使うと機械学習の学習処理ような「停止条件を満たすまでforループを回す」系の処理をうまくモジュール化できることを実感していただければ幸いです。一方で、例えばC#のLINQやJavaのStream APIなど (私はよ

                                                                                  遅延評価と機械学習
                                                                                • Hugging FaceのBERTモデルの推論をTorch TensorRTで高速化 | ゆるいDeep Learning

                                                                                  docker run --gpus all -it --rm -p 8887:8887 --name tensorrt nvcr.io/nvidia/pytorch:22.07-py3 下記コードを参考に実行します。 https://github.com/pytorch/TensorRT/blob/master/notebooks/Hugging-Face-BERT.ipynb Docker内にすでにコードがあるので、そのコードを使用します。 Jupyter-labを起動してコードにアクセスします。

                                                                                    Hugging FaceのBERTモデルの推論をTorch TensorRTで高速化 | ゆるいDeep Learning

                                                                                  新着記事