並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 436件

新着順 人気順

pytorchの検索結果241 - 280 件 / 436件

  • 種類が豊富な画像モデルライブラリpytorch-image-models(timm)の紹介 - のんびりしているエンジニアの日記

    皆さんこんにちは お元気ですか。私は小麦を暫く食べるだけにしたいです。(畑で見たくない‥) さて、本日は最近勢いのあるモデルのライブラリ(pytorch-image-models)を紹介します。 pytorch-image-modelsとは 通称timmと呼ばれるパッケージです。 PyTorchの画像系のモデルや最適化手法(NAdamなど)が実装されています。 Kagglerもこのパッケージを利用することが増えています。 github.com 従来まで利用していたpretrained-models.pytorchは更新が止まっており、最新のモデルに追従できていないところがありました。 このモデルは例えば、EfficientNetやResNeStなどの実装もあります モデルの検証も豊富でImageNetの様々なパタンで行われているのでこの中で最適なものを選択すると良いでしょう。詳しくはこちら

      種類が豊富な画像モデルライブラリpytorch-image-models(timm)の紹介 - のんびりしているエンジニアの日記
    • ニューラルネットワークの学習でしていること

      net = Net()  # ニューラルネットワークのインスタンスを生成 criterion = nn.MSELoss()  # 損失関数 optimizer = torch.optim.SGD(net.parameters(), lr=0.003)  # 最適化アルゴリズム EPOCHS = 2000  # 2000回繰り返す for epoch in range(EPOCHS): optimizer.zero_grad()  # 手順0:重みとバイアスの更新で内部的に使用するデータをリセット outputs = net(X_train)  # 手順1:ニューラルネットワークにデータを入力 loss = criterion(outputs, y_train)  # 手順2:正解ラベルとの比較 loss.backward()  # 手順3:誤差逆伝播 optimizer.step()  #

        ニューラルネットワークの学習でしていること
      • PyTorchで記述したPythonスクリプトをPyInstallerでexe化 - Qiita

        環境 ・Windows 10 pro 64bit ・Python 3.7.9 ・Anaconda 4.8.5 ・PyTorch 1.6.0+cpu ・Pyinstaller 4.0 はじめに Pythonスクリプトをexe化する場合に、よく使われるものとして、Pyinstallerというものがあります。ここでは、PyTorchで文書分類器を作ったスクリプトをexe化したときに、起こったエラーの対処方法を記載していきます。 Anacondaを使っている人へ ライブラリのインストールは、pipとcondaが混在しないようにしてください。また、exe化する際は、exe化するスクリプトに必要なライブラリのみをインストールした仮想環境を作ることをおすすめします。仮想環境の作り方は以下の通りです。 以下のPyTorchのフォーラムにpipでインストールするようにと書かれていましたので、私は全てpipで

          PyTorchで記述したPythonスクリプトをPyInstallerでexe化 - Qiita
        • GitHub - facebookresearch/xformers: Hackable and optimized Transformers building blocks, supporting a composable construction.

          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

            GitHub - facebookresearch/xformers: Hackable and optimized Transformers building blocks, supporting a composable construction.
          • 【Graph Attention Networks解説】実装から読み解くGAT - ころがる狸

            こんにちは。機械学習の適用先としては、自然言語処理、画像解析、時系列解析など幅広い分野があるわけですが、今日はグラフ構造に対する機械学習モデルを紹介したいと思います。グラフで表現出るものは多く、例えば人間関係だとか、論文の引用・被引用関係、さらには化合物の構造なども当てはまります。近年のグラフニューラルネットワークの多くはグラフの頂点や辺を何らかの特徴量で表現し、それらを周囲の情報を取り込みながら更新していくという仕組みを取っています。数多くの事例が報告されていますが、特に注目されているGraph Attention Networks(GAT)について取り上げます。 原著論文はこちら。これを理解するための鍵は、グラフの頂点を表す特徴量をどのように更新するか、そしてグラフの頂点と頂点の「つながり」の重要度をどのように計算するか、という2点にあると思います。 arxiv.org Graph A

              【Graph Attention Networks解説】実装から読み解くGAT - ころがる狸
            • GitHub - pytorch/torchchat: Run PyTorch LLMs locally on servers, desktop and mobile

              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                GitHub - pytorch/torchchat: Run PyTorch LLMs locally on servers, desktop and mobile
              • GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning

                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                  GitHub - pytorch/torchtune: A Native-PyTorch Library for LLM Fine-tuning
                • GitHub - huggingface/accelerate: 🚀 A simple way to launch, train, and use PyTorch models on almost any device and distributed configuration, automatic mixed precision (including fp8), and easy-to-configure FSDP and DeepSpeed support

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                    GitHub - huggingface/accelerate: 🚀 A simple way to launch, train, and use PyTorch models on almost any device and distributed configuration, automatic mixed precision (including fp8), and easy-to-configure FSDP and DeepSpeed support
                  • Engineering Trade-Offs in Automatic Differentiation: from TensorFlow and PyTorch to Jax and Julia - Stochastic Lifestyle

                    December 25 2021 in Julia, Programming, Science, Scientific ML | Tags: automatic differentiation, compilers, differentiable programming, jax, julia, machine learning, pytorch, tensorflow, XLA | Author: Christopher Rackauckas To understand the differences between automatic differentiation libraries, let’s talk about the engineering trade-offs that were made. I would personally say that none of thes

                      Engineering Trade-Offs in Automatic Differentiation: from TensorFlow and PyTorch to Jax and Julia - Stochastic Lifestyle
                    • MNISTの手書き数字を全結合型ニューラルネットワークで処理してみよう

                      MNISTデータベースには、上に示したような手書きの数字(と対応する正解ラベル)が訓練データとして6万個、テストデータとして1万個格納されています。この膨大な数のデータを使用して、手書きの数字を認識してみようというのが目標です。 今回は、これまでに見てきた全結合型のニューラルネットワークを作成して、これを実際に試してみましょう。今回紹介するコードはここで公開しているので、必要に応じて参照してください。 データセットの準備と探索 本連載で使用している機械学習フレームワークであるPyTorchには今述べたMNISTを手軽に扱えるようにするためのtorchvisionパッケージが用意されています(「vision」が付いているのは、このパッケージがコンピューターによる視覚の実現=コンピュータービジョンに由来するのでしょう)。このパッケージを使って実際にMNISTデータベースからデータセットを読み込

                        MNISTの手書き数字を全結合型ニューラルネットワークで処理してみよう
                      • 【C++】学習済みPyTorchモデルのC++(TotchScript)移管 - Qiita

                        TotchScriptとは TorchScriptは、Pythonコードからモデルを段階的に移行するためのツールを提供し、スタンドアロンの C++ プログラムなど、Python から独立して実行できる TorchScript プログラムへ置き換えることができる。つまり、使い慣れたPythonツールを使用して PyTorch でモデルを作成し、推論用にC++へエクスポートすることができ、高速化が図れる。 単純モデルのエクスポート Pytorchで学習したモデルを元に、torch.jit.trace関数を用いてTorchScriptプログラムへ変換する。 ※ ジャストインタイム(JIT)コンパイラー・・・実行時にコードをコンパイルするコンパイラの一種で、実行時に必要な部分のコードを即座にコンパイルして実行する。プラットフォーム(Windows、macOS、LinuxなどのOSやハードウェア)に

                          【C++】学習済みPyTorchモデルのC++(TotchScript)移管 - Qiita
                        • Quanto: a PyTorch quantization backend for Optimum

                          Quantization is a technique to reduce the computational and memory costs of evaluating Deep Learning Models by representing their weights and activations with low-precision data types like 8-bit integer (int8) instead of the usual 32-bit floating point (float32). Reducing the number of bits means the resulting model requires less memory storage, which is crucial for deploying Large Language Models

                            Quanto: a PyTorch quantization backend for Optimum
                          • 【コード付き】画像用Transformerを利用して衛星画像の分類機械学習モデルを作成する | 宙畑

                            色々な分野で応用され始めているTransformerの簡単な解説と実際に衛星画像を利用した雲判定機械学習モデルを作成していきます。 宙畑の2020年Kagglerのアンケート記事でも触れましたが、最近は自然言語処理で使われていたTransformerという技術が、自然言語処理以外の分野でも利用されるようになり、精度の高い結果を出すようになりました。 Kaggleランカーの9人に聞いた、2020年面白かったコンペ9選と論文9選 今回の記事では、Transformer や画像を扱うための Vision Transformer(ViT) についての簡単な解説をおこない、実際に ViT を利用して衛星画像の分類タスクを行います。コードはGoogle Colaboratory(GPU) 上で動かすことを想定していますので、すぐに実行できるようになっています。 Transformer Transfor

                              【コード付き】画像用Transformerを利用して衛星画像の分類機械学習モデルを作成する | 宙畑
                            • PyTorchで画像を小さいパッチに切り出す方法

                              PyTorchで1枚の画像を複数の小さい画像(パッチ)に切り出す方法を紹介します。TensorFlowだとtf.image.extract_patchesにあたる処理です。 torch.Tensor.unfold torch.Tensor.unfoldという関数を使います。 unfold(dimension, size, step) → Tensor という形式で、順番にパッチを切り出す次元、パッチサイズ、パッチを切り出す間隔ですね。次元は縦と横で取ればいいので画像の4階テンソルなら2,3で取れば良いでしょう。 コード この画像を「cat.jpg」とします。 128px × 128pxのパッチで、64px間隔に取り出すものとします。 import torch import torchvision from PIL import Image import numpy as np # テンソル

                                PyTorchで画像を小さいパッチに切り出す方法
                              • PyTorch Tabular – A Framework for Deep Learning for Tabular Data

                                It is common knowledge that Gradient Boosting models, more often than not, kick the asses of every other machine learning models when it comes to Tabular Data. I have written extensively about Gradient Boosting, the theory behind and covered the different implementations like XGBoost, LightGBM, CatBoost, NGBoost etc. in detail. The unreasonable effectiveness of Deep Learning that was displayed in

                                  PyTorch Tabular – A Framework for Deep Learning for Tabular Data
                                • GitHub - bryandlee/animegan2-pytorch: PyTorch implementation of AnimeGANv2

                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                    GitHub - bryandlee/animegan2-pytorch: PyTorch implementation of AnimeGANv2
                                  • AWSがFacebookとPyTorchのモデルサーバライブラリTorchServeを開発、トヨタのTRI-ADも採用

                                    Amazon Web Services(AWS)は2020年4月21日(米国時間)、Facebookと協力し、PyTorchプロジェクトでモデルサーバライブラリを開発したと発表した。トヨタグループで自動運転関連の技術開発を行うToyota Research Institute Advanced Development(TRI-AD)は、これを採用しているという。 一方、PyTorchプロジェクトは、最新リリースのPyTorch 1.5に、これを実験的機能として組み込んだと発表している。 PyTorchは、Facebookが開発をリードしてきたオープンソースソフトウェア(OSS)の機械学習ライブラリ。GitHubにおける説明によると、TorchServeの目的は、同ライブラリの本番利用における次のような課題を解決することだという。 PyTorchモデルをホストする高性能なWebサーバコンポー

                                      AWSがFacebookとPyTorchのモデルサーバライブラリTorchServeを開発、トヨタのTRI-ADも採用
                                    • Vertex AI と PyTorch を使用して、わずか 4 ステップでジェネレーティブ AI モデルをデプロイ | Google Cloud 公式ブログ

                                      Vertex AI と PyTorch を使用して、わずか 4 ステップでジェネレーティブ AI モデルをデプロイ ※この投稿は米国時間 2023 年 5 月 16 日に、Google Cloud blog に投稿されたものの抄訳です。 基盤モデルは、膨大なラベルなしデータでトレーニングされ、テキスト、画像、音楽の生成といった下流のジェネレーティブ AI のタスクに使用されており、新しいプロダクトやサービスを生み出す可能性を探る企業にとって、ますますその利用が拡大しています。基盤モデルは、画像生成などのユースケースに使用できます。生成モデルである拡散モデルは、高画質の画像を生成できることから、ここ数年注目を集めています。Stable Diffusion は、テキストから画像への潜在的な拡散モデルであり、CompVis、Stability AI、LAION の研究者により開発されました。 S

                                        Vertex AI と PyTorch を使用して、わずか 4 ステップでジェネレーティブ AI モデルをデプロイ | Google Cloud 公式ブログ
                                      • PyTorchのTensorのmax, minの仕様が不便 - Qiita

                                        はじめに PyTorchのTensorは基本的にNumPyのndarrayのように扱えますが、ところどころに異なる部分があります。 特にTensorの最大値、最小値を求めるmax(), min()はよく使うのにNumPyと挙動が異なっていて扱いづらいです。 この違いを緩和するためにNumPyと同じようなスタイルでTensorの最大値、最小値を求められる関数を書きました。 PyTorchのmax()とNumPyのmax()の違い Tensorまたはndarrayの全体の最大値を求めたい場合は両者の違いはありません。 つまり、以下の式は両方とも(型は違いますが)同じ値が返ってきます。

                                          PyTorchのTensorのmax, minの仕様が不便 - Qiita
                                        • Lightning Tutorials in collaboration with the University of Amsterdam (UvA)

                                          PyTorch Lightning v1.5 marks a major leap of reliability to support the increasingly complex demands of the leading AI organizations and prestigious research labs that rely on Lightning to develop and deploy AI at scale. As a result of our growth, PyTorch Lightning’s ambition has never been greater and aims at becoming the simplest, most flexible framework for expediting any kind of deep learning

                                            Lightning Tutorials in collaboration with the University of Amsterdam (UvA)
                                          • PyTorch: An Imperative Style, High-Performance Deep Learning Library

                                            Deep learning frameworks have often focused on either usability or speed, but not both. PyTorch is a machine learning library that shows that these two goals are in fact compatible: it provides an imperative and Pythonic programming style that supports code as a model, makes debugging easy and is consistent with other popular scientific computing libraries, while remaining efficient and supporting

                                            • PyTorch Tutorial: How to Develop Deep Learning Models with Python - MachineLearningMastery.com

                                              Predictive modeling with deep learning is a skill that modern developers need to know. PyTorch is the premier open-source deep learning framework developed and maintained by Facebook. At its core, PyTorch is a mathematical library that allows you to perform efficient computation and automatic differentiation on graph-based models. Achieving this directly is challenging, although thankfully, the mo

                                                PyTorch Tutorial: How to Develop Deep Learning Models with Python - MachineLearningMastery.com
                                              • Multilingual CLIP with Huggingface + PyTorch Lightning 🤗 ⚡

                                                  Multilingual CLIP with Huggingface + PyTorch Lightning 🤗 ⚡
                                                • GitHub - Blealtan/efficient-kan: An efficient pure-PyTorch implementation of Kolmogorov-Arnold Network (KAN).

                                                  This repository contains an efficient implementation of Kolmogorov-Arnold Network (KAN). The original implementation of KAN is available here. The performance issue of the original implementation is mostly because it needs to expand all intermediate variables to perform the different activation functions. For a layer with in_features input and out_features output, the original implementation needs

                                                    GitHub - Blealtan/efficient-kan: An efficient pure-PyTorch implementation of Kolmogorov-Arnold Network (KAN).
                                                  • ローカルLLMの推論速度を高速化する5つの手法と比較評価

                                                    目的 ローカルLLMの推論速度を改善する手法がいくつか報告されています。 今回は実際に報告されている5つの手法を実装して推論速度がどの程度改善するか確認します。 推論処理の高速化手法 1. torch.compile 計算グラフを構築 各演算をCPUやGPUのデバイスに特化した細かい命令に分解 与えられた入力に対して上記の命令を呼び出して演算を効率化 実装 モデルを読み込んだ直後にtorch.compileを追加 model = AutoModelForCausalLM.from_pretrained( model_name, device_map="cuda", trust_remote_code=True, torch_dtype=torch.bfloat16, load_in_8bit=False, load_in_4bit=False, use_cache=False, ).eva

                                                      ローカルLLMの推論速度を高速化する5つの手法と比較評価
                                                    • Python: PyTorch で Apple Silicon GPU を使ってみる - CUBE SUGAR CONTAINER

                                                      PyTorch v1.12 以降では、macOS において Apple Silicon あるいは AMD の GPU を使ったアクセラレーションが可能になっているらしい。 バックエンドの名称は Metal Performance Shaders (MPS) という。 意外と簡単に使えるようなので、今回は手元の Mac で試してみた。 使った環境は次のとおり。 GPU が 19 コアの Apple M2 Pro を積んだ Mac mini を使用している。 $ sw_vers ProductName: macOS ProductVersion: 14.4.1 BuildVersion: 23E224 $ sysctl machdep.cpu.brand_string machdep.cpu.brand_string: Apple M2 Pro $ pip list | grep -i tor

                                                        Python: PyTorch で Apple Silicon GPU を使ってみる - CUBE SUGAR CONTAINER
                                                      • AIミュージックバトル!『弁財天』のスターターキットをPyTorchに移植してアドリブメロディの自動生成を試してみた - 備忘録

                                                        はじめに スターターキットについて スターターキットが提供するモデルの概要 実装 必要なパッケージ 実装の概要 メロディ生成実験 実験条件 実験結果 実装の舞台裏やTIPS、TensorFlow版との違いなど おわりに はじめに 最近、下記のイベントが開催されることがアナウンスされた。 benzaiten.studio.site 『AIミュージックバトル!『弁財天』は「伴奏」から「アドリブメロディ」をAIで生成し「どれだけイケてるメロディか」を競うAI自動作曲コンテストです。』 とのことである。 本コンテストではTensorFlowベースのスターターキット(Google Colabで実行可能)が提供されており、自動作曲初心者でも無理なく始められるようになっている。 筆者はPyTorchユーザなので、スターターキットのPyTorch版を作成しておきたいと思ったわけである。自動作曲自体に興味が

                                                          AIミュージックバトル!『弁財天』のスターターキットをPyTorchに移植してアドリブメロディの自動生成を試してみた - 備忘録
                                                        • GitHub - lucidrains/lion-pytorch: 🦁 Lion, new optimizer discovered by Google Brain using genetic algorithms that is purportedly better than Adam(w), in Pytorch

                                                          You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                            GitHub - lucidrains/lion-pytorch: 🦁 Lion, new optimizer discovered by Google Brain using genetic algorithms that is purportedly better than Adam(w), in Pytorch
                                                          • PyTorch Lightning 2021 (for MLコンペ) - Qiita

                                                            こちらの記事は 2021年6月18日に開催された 第2回分析コンペLT会 - connpass で発表に用いた資料です。 前回の発表 や 他の類似ライブラリとの比較記事 の投稿からある程度時間が経ち、PyTorch Lightning については色々と書き方も変わったのであらためてまとめました。 0. この記事について 対象 素の PyTorch を使ったことがある人 使ったことがない人は必ず Tutorial やってください MLコンペ(特に画像系)に何回か参加する予定がある人 MLコンペは主に Kaggle を想定しています 一度しか参加しないなら素の PyTorch 書き下したほうがはやいです 注意事項 この記事は PyTorch Lightning を使う「べき」という主張ではありません あくまでライブラリの一つの紹介です 「まあそこまで言うなら触ってみよう」というきっかけになるこ

                                                              PyTorch Lightning 2021 (for MLコンペ) - Qiita
                                                            • 【実装解説】日本語版BERTをGoogle Colaboratoryで使う方法(PyTorch) - Qiita

                                                              本記事では、Google Colaboratoryで日本語版のBERTを使用する方法について解説します。 BERTそのものについては、昨年執筆した書籍 「つくりながら学ぶ!PyTorchによる発展ディープラーニング」 で詳細に解説しています。 BERTの仕組みを知りたい方は上記の書籍をご覧ください。 書籍では英語版しか扱っていなかったので、本投稿では日本語版でのBERTの使用方法の解説を行います。 (この記事のあと、2つほど書きたいと思っています。) なお本投稿内容の実装コードは以下のGitHubリポジトリに置いています。 GitHub:日本語版BERTのGoogle Colaboratoryでの使用方法:実装コード の、1_Japanese_BERT_on_Google_Colaboratory.ipynbです。 連載一覧 [1] ※本記事【実装解説】日本語版BERTをGoogle Co

                                                                【実装解説】日本語版BERTをGoogle Colaboratoryで使う方法(PyTorch) - Qiita
                                                              • pyTorchのTensor型とは - Qiita

                                                                2019/9/29 投稿 2019/11/8 やや見やすく編集(主観) 2020/2/1 Tensor型の微分計算の解説Link追加 0. この記事の対象者 pythonを触ったことがあり,実行環境が整っている人 pyTorchを初めて触る人 pyTorchのTensor型をしっかり理解したい人 pyTorchでの機械学習でTensor型dataをどう使っているかを知りたい人 1. はじめに 昨今では機械学習に対しpythonという言語が主に使用され,さらにmoduleとしてpyTorchというものが使用されることがある. 今回はそのpyTorchを使用するための前準備としてTensor型というものの説明をしていく. ただしあくまで参考程度にしてほしいということと,簡潔に言うために間違った表現や言い回しをしている場合があるかもしれないが,そこはどうかご了承していただきたい. 2. Tens

                                                                  pyTorchのTensor型とは - Qiita
                                                                • torchdataとwebdatasetの使いどころ - Qiita

                                                                  TorchData pytorchでデーラローダーを作成する方法は色々ありますが,最近(2022年前半)にTorchDataがアナウンスされました. https://github.com/pytorch/data https://pytorch.org/data/beta/index.html でもあまり情報が出回っておらず,検索してもcsvを読み込む程度の説明しか見当たりません.データパイプの分岐や処理などをどうやるのか,何に使えるのかがよく分からないので,記事を書いてみました. リンク先の記事ではtorchdataの簡単な説明から始めて,物体検出用のデータセットに適用するということをしています.画像は画像フォルダに,bbox情報はcsvに,というアノテーションデータをtorchdataのdatapipeを使って読み込みます.データ拡張にはalbumentationsを使います. tor

                                                                    torchdataとwebdatasetの使いどころ - Qiita
                                                                  • 【PyTorch】「CUDA error: device-side assert triggered」 解決の手引き

                                                                    はじめに PyTorchにて, “RuntimeError: CUDA error: device-side assert triggered"というエラーに出くわすことがある ネットに転がってるモデルで発生すると特に厄介である (自分が作った沼ではないので…) またMAEでのマスク処理のような, テクニカルな処理を行う場合などにも頻発 再現性が取れず, 出力されるエラー内容も二転三転. 一定確率で上記のエラーが発生する. 今まではうまく行ってたのに急にエラーが頻発することなども多々あり ということで, 金輪際このエラーに立ち往生しないよう, “CUDA error: device-side assert triggered"に終止符を打とう! ネットに転がってる議論は入力のshapeが云々・loss関数が云々と具体的で狙い撃ち的すぎる なので, より実践的な解決の手引きをメモ程度にまとめ

                                                                      【PyTorch】「CUDA error: device-side assert triggered」 解決の手引き
                                                                    • PyTorch CNNモデル再現性問題 - Qiita

                                                                      はじめに 最近ずっと悩んでいたのが、PyTorchで乱数の種を固定したつもりでも、結果が一定しない問題。環境はGoogle ColabのGPUです。 (2021-04-10) 対策もわかったので修正 (2021-07-06) 従来の方式でGoogle Colabでエラーになったので対策を追記 (2021-08-01) pytorchのバージョンアップに伴い、関数が変わったのでコード修正 どのような問題か 次のようなコードで定義したCNNモデルです。 CIFAR-10学習用に作ったモデルです。 class CNN_v2(nn.Module): def __init__(self, num_classes): super().__init__() self.conv1 = nn.Conv2d(3, 32, 3, padding=(1,1), padding_mode='replicate')

                                                                        PyTorch CNNモデル再現性問題 - Qiita
                                                                      • GitHub - open-mmlab/mmocr: OpenMMLab Text Detection, Recognition and Understanding Toolbox

                                                                        You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                          GitHub - open-mmlab/mmocr: OpenMMLab Text Detection, Recognition and Understanding Toolbox
                                                                        • NVIDIA #GTC2024 Conference Session Catalog

                                                                          Workshops March 16  |  AI Conference and & Expo March 17–20  |  Keynote March 17 | San Jose, CA

                                                                            NVIDIA #GTC2024 Conference Session Catalog
                                                                          • 【自然言語処理】単語埋め込みからSelf-Attention、2値分類まで。 - ころがる狸

                                                                            こんにちは、Dajiroです。前回の技術記事を書いてからだいぶ日が空きました。本ブログでは機械学習に関する幅広い技術を解説しようと目論んでいるので、まだ扱ったことのない自然言語処理のネタををじっくりコトコト仕込んでいました。本記事では 単語埋め込み 語順の組み込み Self-Attention に焦点を当てながら、2値分類の一連のワークフローの解説と(若干の)実装をご紹介します!実装はこちらの書籍を参考にしました。2値分類を行うためのTransformerのエンコーダ部分が紹介されています。 つくりながら学ぶ!PyTorchによる発展ディープラーニング 作者:小川 雄太郎発売日: 2019/07/29メディア: Kindle版 Transformerとは? 仕組みの概要 全体の流れ 1. 文章のベクトル化 2. 語順情報を追加 3.アテンションの計算 二値分類と結果の解釈 所感 Trans

                                                                              【自然言語処理】単語埋め込みからSelf-Attention、2値分類まで。 - ころがる狸
                                                                            • GitHub - bitsandbytes-foundation/bitsandbytes: Accessible large language models via k-bit quantization for PyTorch.

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - bitsandbytes-foundation/bitsandbytes: Accessible large language models via k-bit quantization for PyTorch.
                                                                              • Demystify RAM Usage in Multi-Process Data Loaders

                                                                                A typical PyTorch training program on 8 GPUs with 4 dataloaderworkers per GPU would create at least processes.A naive use of PyTorch dataset and dataloader can easilyreplicate your dataset's RAM usage by 40 times. This issue has probably affected everyone who has done anything nontrivial with PyTorch.In this post, we will explain why it happens, and how to avoid the 40x RAM usage. All code example

                                                                                  Demystify RAM Usage in Multi-Process Data Loaders
                                                                                • Pytorchでモデルの保存と読み込み - Pythonいぬ

                                                                                  Pytorchでモデルを学習した後にモデルの学習済み重みパラメータを保存して、別のプログラムで読み込みたい。特にGPUで学習したモデルを、GPUを持たないCPUのみのPCで使いたい場合によくハマるのでメモを残しておく。 GPUで学習してGPUで読み込む 保存方法(GPUで保存) 読み出し方法 GPUで学習してCPUで読み込む 保存方法(CPUで保存) CPUマシンでのGPUモデルの読み出し 保存時はstate_dict()を使う state_dict()と直接保存のサイズ比較 学習済みモデルをCPUのPCで使う方法 モデルのdeviceをGPUからCPUに変更して保存 モデルの読み出し時にdeviceをCPUに指定 読み出しエラーの再現 GPUで学習してGPUで読み込む GPUで学習したモデルを保存して、GPUで読み込む場合は以下のコマンド。 保存方法(GPUで保存) model_path

                                                                                    Pytorchでモデルの保存と読み込み - Pythonいぬ

                                                                                  新着記事