並び順

ブックマーク数

期間指定

  • から
  • まで

361 - 400 件 / 1452件

新着順 人気順

CUDAの検索結果361 - 400 件 / 1452件

  • 【Stable Diffusion】ChilloutMixの使い方(Google Colab)

    ChilloutMixについて ChilloutMixは、本物のようなイラストで、とくにアジア人を描くことを得意としています。 とてもリアルで写真のようなイラストを作ることができ、とても人気のあるモデルのひとつです。 ChilloutMixは、CIVITAIで配布されています。(ログインが必要になります) CIVITAI[ChilloutMix]:(https://civitai.com/models/6424/chilloutmix) ChilloutMixを使う方法について 今回は「Stable Diffusion Web UI」で、「ChilloutMix」を使っていこうと思います。 また、「Stable Diffusion Web UI」を動かす環境として、Google Colabを使います。 「Google Colab」上で「Stable Diffusion Web UI」を動か

      【Stable Diffusion】ChilloutMixの使い方(Google Colab)
    • NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表

      2024年2月26日からスペインのバルセロナで開催されているテクノロジー見本市・MWC Barcelona 2024で、NVIDIAが「Ada Lovelace」アーキテクチャを採用したモバイルGPUである「RTX 500 Ada Generation」と「RTX 1000 Ada Generation」を発表しました。 NVIDIA RTX 500 and 1000 Professional Ada Generation Laptop GPUs Drive AI-Enhanced Workflows From Anywhere | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-ada-ai-workflows/ Nvidia talks up local AI with RTX 500, 1000 Ada launch • The Regis

        NVIDIAが外出先でもローカルでAIをフル活用できるノートPC向けGPU「RTX 500/1000 Ada Generation」を発表
      • モノレポの Python バージョンを 3.9 から 3.11 に上げる - CADDi Tech Blog

        はじめに AI Team MLOps Engineer の西原です。前回は kubeflow pipeline(kfp)のローカル環境での実行について Tech Blog を書きました。kfp は 2024 年に入ってからローカル環境の実行以外にも嬉しいアップデートがあったのでそれに少し絡めて今回の取り組みを紹介しようと思います。 今回の取り組みは、モノレポで使っている Python の最低バージョンを 3.9 から 3.11 に上げるというものです。なぜ、バージョンを上げたのか、上げる際の障壁とその対応を紹介しようと思います。 はじめに なぜ Python バージョンを上げたのか パッケージ更新を頻繁にする理由 パッケージの更新ができなくなった torchserve と各ソフトウェアのバージョン Python のバージョンをどこまで上げるか torchserve のコンテナイメージを自分

          モノレポの Python バージョンを 3.9 から 3.11 に上げる - CADDi Tech Blog
        • 窓辺の小石(2) WindowsでLinux

          Linuxは、すでに普及しているプラットフォームの1つ。Webサーバーなどにも使われるが、普通のPCに入れてメインマシンとする人もいる。また、AndroidやChromeOSはLinuxカーネルで作られている。Linuxはカーネルとさまざまな周辺ソフトウェアを組み合わせた「ディストリビューション」で利用するのが普通だが、このディストリビューションは、UNIXを手本としたものが大半で、コマンド名やデーモン起動、ディレクトリ構造などをUNIXから受け継いでおり、Linux/UNIX環境といった呼び方をされるときもある。 かつて、UNIXとX Window SystemなどのGUI環境を組み合わせたUNIXワークステーション(WSと略すこともあった)が広く使われていた時代もあった。1980年台から90年台にかけてのことだ。当時、将来のコンピューターハードウェアは、PCなのかWSなのかといった議論

            窓辺の小石(2) WindowsでLinux
          • ナカシャクリエイテブ株式会社

            機械学習・AI【物体検出】vol.1 :Windowsでディープラーニング!Darknet YOLOv3(AlexeyAB Darknet) 最速の物体検知手法:YOLOv3 ディープラーニングの物体検出において、大きなインパクトをもって登場したdarknet YOLO(ヨロ)。 2018年3月にJoseph Chet Redmonの本家darknet(https://pjreddie.com/)で、最新のYOLOv3が公開されました。 既存の物体認識、検出系の仕組みのトップレベルの認識率を維持したままで、既存の仕組みと比較して3倍から5倍の認識速度を実現しました。 ジョセフ・レドモン(プログラマー)氏について アメリカ、ワシントン大学大学院に在籍中。オープンソースの物体検出システム YOLO (You Only Look Once)に取り組んでいる。 物体検出システムの分野はここ数年、様

              ナカシャクリエイテブ株式会社
            • CTranslate2でRinnaモデルをコンバートしてCPUや8GB GPUで動くようにする - きしだのHatena

              CTranslate2はTransformerモデルをCPUやGPUで効率的に動かすライブラリです。 https://github.com/OpenNMT/CTranslate2 CTranslate2の機能のひとつにモデルの量子化があります。INT8で量子化すると雑に必要メモリが半分に。そしてCPUでも動かしやすくなるので、GPUなくてもLLMが試しやすくなります。 まあ、INT8を使うだけだと、モデルの読み込み時のfrom_pretrainedにload_in_8bit=Trueをつければいいのだけど、これがbitsandbytesというライブラリを使ってて、そしてbitsandbytesがWindowsに対応していない。*1 一応、有志がビルドしたDLLを使えば動くのだけど、めんどい。 https://qiita.com/selllous/items/fbaa2c3d2d504e43

                CTranslate2でRinnaモデルをコンバートしてCPUや8GB GPUで動くようにする - きしだのHatena
              • 大規模言語モデルをシングルGPUで動かせる!? FlexGenを触ってみた | DevelopersIO

                こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村です。 今回は大規模言語モデルをシングルGPUで動かせるという噂のFlexGenについて使ってみて紹介したいと思います。 FlexGenとは FlexGenは、大規模言語モデル(LLM: Large Language Model)をシングルGPU(例えば、16GBのT4や24GBのRTX3090)で実行可能な高スループットな生成エンジンです。 以下がGitHubになります。 FlexGenは、Meta社が開発したOPT(Open Pre-trained Transformer)を動かすことができ、実際にAIアシスタントと会話することができます。 参考までにOPTに関する論文は以下です。 使用環境 Google ColaboratoryのPro環境を使います。モデルのアーキテクチャによって動作させるスペック

                  大規模言語モデルをシングルGPUで動かせる!? FlexGenを触ってみた | DevelopersIO
                • GeForce RTX 4060 Ti搭載AD106のベンチマーク出現。性能はRTX 3070 Ti相当?

                  NVIDIA GeForce RTX 4060 Ti搭載のAD106 GPUのベンチマーク出現。性能はRTX 3070並 Alleged NVIDIA GeForce RTX AD106 GPU Benchmarks Leak Out, On Par With RTX 3070 Ti | wccftech NVIDIAでは2022年にRTX 4090をはじめ、RTX 4080やRTX 4070 Tiなど徐々にラインアップの拡充を進めていますが、NVIDIAでは2023年上半期までにアッパーミドルレンジおよびミドルレンジ向けのGeForce RTX 4000シリーズグラフィックスカードであるGeForce RTX 4060 TiとRTX 4060の投入を計画しています。 このRTX 4060 TiとRTX 4060にはAD106 GPUと呼ばれる最大4608基のCUDAコアを搭載し、バス幅は

                    GeForce RTX 4060 Ti搭載AD106のベンチマーク出現。性能はRTX 3070 Ti相当?
                  • Stable Diffusion v1.5 美少女画検証 - 電通総研 テックブログ

                    電通国際情報サービス、オープンイノベーションラボの比嘉康雄です。 Stable Diffusionシリーズ、今回は、Stable Diffusion v1.5が出たので早速、Stable Diffusionが比較的苦手な美少女画で検証してみました。 StabilityAIではなく、Runawaymlからv1.5がリリースされたので、StabilityAIが削除申請を出したのですが、取り下げたようです。 huggingface.co Stable Diffusionのおすすめコンテンツはこちら。 Waifu Diffusion 1.3.5_80000 v2.1 金髪美女写真 v2.1 美少女アニメ画 v2.1 AUTOMATIC1111 v2.0 美少女イラスト v1.5 美少女画検証 美少女アニメ画改善版 美少女を高確率で出す呪文編 美少女アニメ画編 TPU版の使い方 美少女写真編 女性イ

                      Stable Diffusion v1.5 美少女画検証 - 電通総研 テックブログ
                    • AutoGluonを使ってみた | DevelopersIO

                      当エントリは『機械学習 on AWS Advent Calendar 2019』の15日目のエントリです。 概要 当エントリは『機械学習 on AWS Advent Calendar 2019』の15日目のエントリです。 クラスメソッド 機械学習 on AWS Advent Calendar 2019 - Qiita クラスメソッド 機械学習 on AWS Advent Calendar 2019 | シリーズ | Developers.IO MXNet由来のAutoML系パッケージであるAutoGluonを試してみたので、そのレポートです。 AutoGluon, a new open source toolkit from @awscloud based on #MXNet, enables users to achieve state-of-the-art deep learning

                        AutoGluonを使ってみた | DevelopersIO
                      • Onnx RuntimeをUnityで動かす - Asus4 onD

                        Onnx Runtimeをネイティブプラグインとして、Unity上で動かす実験とサンプルを公開しています。 github.com 開発の動機 4年前に、TensorFlow LiteをUnityで動かす実験を初めて、 はじめは全くの趣味で始めたものが、今では海外からいただく相談の半分以上が機械学習関連になっています。 四年前に始めた実験↓ asus4.hatenablog.com ところが、実際にシェアを見ると、研究関連ではPytorchのシェアが圧倒的。Unityの公式推論ライブラリBarracudaやTensorFlow Liteで動かすために一旦Onnxに変換するなどの事例なども増え始め、速度的にはTFLiteは非常に満足していますが、サクッとモデルを試してみたいという時に、変換するのが億劫になってきていました。公式ツールで変換しようにもOnnxやPytorchのNCHWからTFLi

                          Onnx RuntimeをUnityで動かす - Asus4 onD
                        • [ローカル環境] faster-whisperを利用してリアルタイム文字起こしに挑戦 - Qiita

                          はじめに WhisperAPI を利用せずにローカル環境でリアルタイム文字起こしに挑戦してみました。 本家Whisperだと音声ファイル形式以外の入力がうまくいかなかったため、faster-whisper を利用しました。 手探りで挑戦しましたので、何かご指摘がありましたらお教えいただければ幸いです。 効率的に文字起こしを行うための関連記事 [ローカル環境] faster-whisper を利用してリアルタイム文字起こしに挑戦2 [Windows] 文字起こしにデスクトップ音を利用する試み faster-whisperのパラメータを調べてみました [faster-whisper]ローカル環境でのリアルタイム文字起こしがいい感じに動作するようになった 2023 年 03 月 30 日 2023 年 04 月 05 日 更新 2023 年 04 月 26 日 更新 2023 年 04 月 28

                            [ローカル環境] faster-whisperを利用してリアルタイム文字起こしに挑戦 - Qiita
                          • Faster WhisperとAWS SageMakerを活用してGPUでの高速文字起こしエンドポイントを構築する

                            概要 最近の音声認識技術の進歩はすごいですね! 特にOpenAIの最新モデルであるWhisper large-v3は、日本語の音声データでもかなりの高精度で文字起こしを行うことができ、APIも公開されています。 ただし簡単に使用でき汎用性も高い一方で、大量に使用する場合の高コストやプライバシーの懸念もあるため、ローカル環境で効率よく高精度な文字起こしを実現するモデルが多数開発されています。 今回は、その中でもGPUを使用した高速推論が可能な「Faster Whisper」を用いて、AWS SageMakerでカスタム文字起こしエンドポイントを構築してみたので、手順を解説していきたいと思います。 実装コードは以下のリポジトリにあります。 順番通りJupyterNotebookを実行すると問題なく動作するはずです。 Faster Whisperとは Faster WhisperはOpenAIの

                              Faster WhisperとAWS SageMakerを活用してGPUでの高速文字起こしエンドポイントを構築する
                            • OpenAIがリリースした音声認識モデル”Whisper”の使い方をまとめてみた | DevelopersIO

                              こんちには。 データアナリティクス事業本部 機械学習チームの中村です。 OpenAIがリリースしたWhisperについて、先日は以下の紹介記事を書きました。 今回はもう少し深堀することで、様々な使い方がわかってきたのでシェアしたいと思います。 Whisperでできること APIを使ってできるのは以下になります。 transcribe(書き起こし処理) 音声からの文字書き起こし。 99言語に対応 translate(書き起こし + 翻訳) 音声からの翻訳処理。 入力は多言語に対応していますが、出力は英語のみ。 また内包される機能として、言語判定や有音無音判定(VAD:Voice Activation Detector)があります。 この記事ではそれぞれの使い方を見ていきながら、transcribeの詳細に迫ります。 実行環境 ハードウェアなどの主な情報は以下の通りです。 GPU: Tesla

                                OpenAIがリリースした音声認識モデル”Whisper”の使い方をまとめてみた | DevelopersIO
                              • NVIDIAの新型GPU「RTX 5000」「RTX4500」「RTX4000」が発表。次世代の生成AI技術に対応し、デスクトップにも搭載可能

                                NVIDIAは8月8日、CG技術に関する学会「SIGGRAPH 2023」にて、ワークステーション向けの新型GPU「RTX 5000」「RTX4500」「RTX4000」を発表した。 「RTX 5000」の価格は4000ドルで8月8日より発売を開始。「RTX4500」の価格は2250ドル「RTX4000」は1250ドルでそれぞれ2023年秋に発売される予定だ。 (画像はNVIDIA, Global Workstation Manufacturers to Launch Powerful Systems for Generative AI and LLM Development, Content Creation, Data Science | NVIDIA Newsroomより) この度発表された「RTX 5000」「RTX4500」「RTX4000」は、2023年の1月に発表された「RT

                                  NVIDIAの新型GPU「RTX 5000」「RTX4500」「RTX4000」が発表。次世代の生成AI技術に対応し、デスクトップにも搭載可能
                                • GPU/CUDAとPyTorch周りの様々なバージョンを理解する - yag's blog

                                  前置き GPUを利用したディープラーニングの環境構築において、GPUのドライバやCUDAの諸々の設定は初学者が誰しも嵌る最初の難関と言える。私自身これまではネットの情報をあれこれ試して上手く行けばOKで済ませていたが、この辺で今一度正しく理解しておきたい。そこでこの記事を通して、GPU/CUDAとPyTorchの環境構築で遭遇する様々なバージョンの識別とその意味を理解することを目的とする。なお、細かなインストール方法やエラー対応などは本記事では扱わない。また、グラフィックボード/グラフィックカードと呼ぶべきところをGPUと表現している点もご容赦いただきたい。 [注意] この記事はGPU/CUDA素人が書いているので、細かな用語や名称の間違いが多分に含まれていると思われる。間違っていたらごめんなさい。また、事例として紹介しているバージョン番号は当然ながら時が経つにつれ古くなるので注意。 GP

                                    GPU/CUDAとPyTorch周りの様々なバージョンを理解する - yag's blog
                                  • Google Colab で はじめる Trinart Stable Diffusion|npaka

                                    「Trinart Stable Diffusion」が二次元キャラの画像生成が得意らしいということで試してみました。 ・Trinart Stable Diffusion v2 ・Stable Diffusion v1.4 1. Trinart Stable Diffusion「Trinart Stable Diffusion」は、「Stable Diffusion」を二次元イラストのデータセットでファインチューニングして作られた画像生成AIです。Twitterボット「とりんさまAI」@trinsama ( https://twitter.com/trinsama ) で学習しています。 2. Colabでの実行Colabでの実行手順は、次のとおりです。 (1) 新規のColabのノートブックを開き、メニュー「編集 → ノートブックの設定」で「GPU」を選択。 # GPUの確認 !nvidi

                                      Google Colab で はじめる Trinart Stable Diffusion|npaka
                                    • 社内GPU機の構成をItamaeで管理するようにしたことと、その反省点について - BANK tech blog

                                      ⚠️⚠️ 注意 ⚠️⚠️ この記事の内容は2019年6月における弊社の状況についてまとめたものになります。内容を参考にする場合は注意してください。 こんにちは。機械学習についてはド素人のうなすけです。何もわかりません。この記事では、機械学習に使用しているGPU搭載社内PCにItamae recipeを用意した話をします。 不調になったGPU機 弊社には、TITAN Vを2枚積んだマシン(以下GPU機)があります。データ解析チームはそのマシンを利用して機械学習を行い、様々なモデルを作成してCASHやTRAVEL Nowのサービス改善に貢献しています。 ところがある日から、GPU機で学習を進めているうちに突然電源が落ちたり、そもそも起動しないということが頻繁に発生するようになってしまいました。 URLはマザーボードの製品ページです 起動すらまともにしなくなった様子 このGPU機はBTOとして購

                                        社内GPU機の構成をItamaeで管理するようにしたことと、その反省点について - BANK tech blog
                                      • NVIDIA、vSphere環境で稼働する「NVIDIA AI Enterprise」提供開始。GPUの能力を仮想化でスケーラブルに提供

                                        NVIDIA、vSphere環境で稼働する「NVIDIA AI Enterprise」提供開始。GPUの能力を仮想化でスケーラブルに提供 NVIDIAは企業がオンプレミスやクラウド環境においてAIのワークロードを処理するための基盤ソフトウェア群「NVIDIA AI Enterprise」の提供開始を発表しました。 NVIDIA AI Enterpriseソフトウェアの一般提供を開始!これまで個別に提供されていたオープンソースのRAPIDSやTensor RTといったツール、TensorFlowやPyTorchなどのディープラーニングフレームワークをパッケージ化し、エンタープライズ水準のサポートを提供します。https://t.co/XDr72zfm3L pic.twitter.com/hYVw3dKB38 — NVIDIA AI Japan (@NVIDIAAIJP) August 27,

                                          NVIDIA、vSphere環境で稼働する「NVIDIA AI Enterprise」提供開始。GPUの能力を仮想化でスケーラブルに提供
                                        • 既存GPUと一線を画す4Kの強さ。GeForce RTX 4090のゲーム性能を徹底検証! (1/6)

                                          GeForce RTX 4090はNVIDIAからお借りしたRTX 4090 FEを使用した。3スロット厚、PCI Express Gen 5準拠の12VHPWRで補助電源を供給する設計となる。冷却ファンの直径もRTX 3090 FEよりもわずかに大きい Ada Lovelace世代のフラッグシップGPU「GeForce RTX 4090」(以下、RTX 4090)は、16384基という膨大なCUDAコアの力でRTX 3090 Tiの2倍近い性能を叩き出したモンスターGPUである。技術的な見どころや基本的ベンチマーク(3DMark)は前回の記事で解説済みだ。 今回は「GeForce RTX 4090 Founders Edition」(以下、RTX 4090 FE)の実ゲームにおけるパフォーマンス検証の結果をお届けする。予め言及しておくと、NVIDIAはRTX 4090をゲーマーのためのプ

                                            既存GPUと一線を画す4Kの強さ。GeForce RTX 4090のゲーム性能を徹底検証! (1/6)
                                          • Fast and Portable Llama2 Inference on the Heterogeneous Edge

                                            Fast and Portable Llama2 Inference on the Heterogeneous Edge • 12 minutes to read The Rust+Wasm stack provides a strong alternative to Python in AI inference. Compared with Python, Rust+Wasm apps could be 1/100 of the size, 100x the speed, and most importantly securely run everywhere at full hardware acceleration without any change to the binary code. Rust is the language of AGI. We created a very

                                              Fast and Portable Llama2 Inference on the Heterogeneous Edge
                                            • GeForce RTX 4090 Founders Edition開封の儀!超ド級カードの気になるポイントをチェック

                                              「GeForce RTX 4090 Founders Edition」の化粧箱。側面の三角形状の構造物は発泡スチロール製であり、側面以外の面を紙で覆った凝った形状になっている。今回も日本での入手ルートはショップの並行輸入や個人輸入に限定されている NVIDIAの超エンスージアスト向けGPU「GeForce RTX 4090」(以下、RTX 4090)の発売が10月12日に迫っている。TSMCによる5nmプロセス、Ada Lovelaceアーキテクチャーの採用、さらに16384基ものCUDAコアを備え、「GeForce RTX 3090 Ti」(以下、RTX 3090 Ti)の2倍、ゲームや設定によっては4倍近い性能を出せるとNVIDIAは主張する。 フラッグシップモデルだけあって予想価格が30万円弱からである点は少々残念ではあるが、「金で買える最高のGPU」が欲しい人には何をおいても手に入

                                                GeForce RTX 4090 Founders Edition開封の儀!超ド級カードの気になるポイントをチェック
                                              • NVIDIA GeForce GTXシリーズ消滅へ。GTX 1650やGTX 1630は2024年第1四半期中に生産終了。

                                                ホームGPU最新情報その他 NVIDIA GPUNVIDIA GeForce GTXシリーズ消滅へ。GTX 1650やGTX 1630は2024年第1四半期中に生産終了。 NVIDIA GeForce GTXシリーズ消滅へ。GTX 1650やGTX 1630は2024年第1四半期中に生産終了。 2023 12/15 NVIDIA GeForce GTXシリーズは消滅。GTX 1650やGTX 1630などのGTX 1600シリーズが2024年第1四半期中に生産終了へ。後継はGeForce RTX 3050 6GB? NVIDIAのGTXブランドについては2005年に登場したGeForce 7シリーズから登場した登場したブランド名で当時はグラフィックカードのモデルの末尾に、例えばGeForce 7800 GTXの様に付けられていました。それから3年後の2008年に登場したGeForce 20

                                                  NVIDIA GeForce GTXシリーズ消滅へ。GTX 1650やGTX 1630は2024年第1四半期中に生産終了。
                                                • 3K, 60fps, 130ms: achieving it with Rust | tonari blog

                                                  How we chose the Rust programming language to advance the state-of-the-art in real-time communication This post was written collectively with Ryo Kawaguchi, Andrea Law, Brian Schwind. Our goal for tonari is to build a virtual doorway to another space that allows for truly natural human interactions. Nearly two years in development, tonari is, to the best of our knowledge, the lowest-latency high r

                                                    3K, 60fps, 130ms: achieving it with Rust | tonari blog
                                                  • Stable DiffusionをVSCode + Jupyter Notebookで動かす

                                                    これは何 Jupyterをいれたまえという天の声を受けて入れたらStable Diffusionの実行とかみ合わせがとても良いので布教するための記事 この記事で説明すること StableDiffusionをAnaconda + VSCode + Jupyter Notebook構成で動かす方法 前段の環境構築は引用記事だけご紹介 後半のVSCode登場してからがこの記事における説明内容 この構成を推す理由 Stable Diffusionではpromptを書き換えて何度も実行することになる jupyterを導入すると、それがとてもやりやすい Anacondaは環境が混ざるのを防止のため npm使ってる人向けに軽い説明をすると、pythonはnpm -gするのがデフォみたいな感じなので、それを分離できるようにするのがAnaconda。Anacondaはpythonのバージョンも指定できるので

                                                      Stable DiffusionをVSCode + Jupyter Notebookで動かす
                                                    • 大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場

                                                      Low Rank Adapation(LoRA)はAIへの追加学習を少ない計算量で行うためのモデルです。このLoRAを使って、事前トレーニングされた大規模言語モデルに低コストかつ効率的にファインチューニング(微調整)を行えるシステム「Punica」を、ワシントン大学とデューク大学の研究チームが公開しました。 GitHub - punica-ai/punica: Serving multiple LoRA finetuned LLM as one https://github.com/punica-ai/punica [2310.18547] Punica: Multi-Tenant LoRA Serving https://arxiv.org/abs/2310.18547 企業や開発者が特定のタスクに適した大規模言語モデルを用意したい場合、事前学習済みの大規模言語モデルをファインチューニン

                                                        大規模言語モデルをLoRAで低コストかつ効率的に微調整できる「Punica」が登場
                                                      • CLIPから見るAttentionの有用性 | Shikoan's ML Blog

                                                        Attentionはこれまでの研究から多く有用性は報告されていたのですが、ネットワークの内側で使われることが多く、わかりやすく差を体感できる例を自分は知りませんでした。今回はCLIPのAdapterという点から、Attentionの有無による精度比較を行ってみます。 はじめに Adapterとは 最近研究でよく見られるようになりました。基盤モデルのような大きな事前訓練済みモデルに対し、小さなネットワークを差し込み、その部分のみ訓練することで任意の訓練データに対して適用させるものです。ファインチューニングとの違いは以下の通りです。 Adapter 追加小さなネットワークのみ訓練、元モデルは訓練しない 訓練速度が速い 元モデルはそのままなので、破滅的忘却に悩まされるリスクが減る ファインチューニング モデルの全体ないし、末尾の特定層のみ訓練 特に元モデルが大きくなると、訓練速度がAdapter

                                                          CLIPから見るAttentionの有用性 | Shikoan's ML Blog
                                                        • Microsoft Build 2020 Keynote的な何か

                                                          今年もMicrosoft Buildの時期がやってきました。 Microsoft Build 2020 microsoft / Build2020_DigitalSwag (お土産) https://channel9.msdn.com/ … Ch9でも見れます 全体的なアナウンスなど Microsoft Build 2020: Empowering developers to deliver impact today and tomorrow Microsoft announces new supercomputer, lays out vision for future AI work Build AI you can trust with responsible ML Developer Velocity: Empowering developers to fuel business

                                                            Microsoft Build 2020 Keynote的な何か
                                                          • WindowsでNNabla(Neural Network Libraries)とNeural Network Consoleを試してみた - Qiita

                                                            WindowsでNNabla(Neural Network Libraries)とNeural Network Consoleを試してみたDeepLearningニューラルネットワークNNablaNeuralNetworkConsoleNeuralNetworkLibraries NNablaは、Neural Networkフレームワークであり、Neural Networkを構築するためのライブラリでC++とPython2, Python3が利用できる。 2017年8月17日、NNabla用のGUIツールNeural Network Consoleが公開された。 Neural Network Consoleを利用すればコードを書かなくてもGUIでNeural Networkを構築でき自動でいろいろと最適化をしてくれるらしい。 参考:http://qiita.com/HirofumiYash

                                                              WindowsでNNabla(Neural Network Libraries)とNeural Network Consoleを試してみた - Qiita
                                                            • Windows 10で始めるC言語開発(1) Windows 10でC言語開発をしよう!LLVM/Clangで行く

                                                              TIOBE Programming Community Index (2021年4月4日) 資料: TIOBE Software 増加傾向を続けているのはPythonだ。使われる分野も多岐にわたる。学習が比較的容易で必要とされる産業が多いということは、それだけ就職口があるということも意味している。この言語に人気が出るのは当然だ。 長期にわたって減少傾向にあるものの、Javaにも根強いシェアがある。Javaは既に企業システムの基幹部分で使われているなど、ビジネスにおいて欠かすことができない言語だ。新規開発に加えて、Javaで開発したシステムのメンテナンスや改修といったニーズもある。これも就職先が多いプログラミング言語だ。 そして現在、TIOBE Programming Community Indexの1位はC言語だ。もともとC言語は人気1位だったが、Javaの登場以降は2位に甘んじていた。し

                                                                Windows 10で始めるC言語開発(1) Windows 10でC言語開発をしよう!LLVM/Clangで行く
                                                              • Heterogeneous Graphでグラフニューラルネットワークの学習をやってみた - NTT Communications Engineers' Blog

                                                                この記事は、NTTコミュニケーションズ Advent Calendar 2022 20日目の記事です。 こんにちは。コミュニケーション&アプリケーションサービス部の石井です。 普段の業務では文章要約技術を用いたAPIサービス1の開発・運用に取り組んでおります。 この記事ではグラフニューラルネットワーク(GNN)、特に Heterogeneous Graph(異種グラフ) を扱ったGNNについて紹介していこうと思います。 本記事で扱う内容 この記事で取り扱う内容は以下です。 グラフニューラルネットワーク(GNN)とは Heterogeneous Graph(異種グラフ) 機械学習におけるグラフベースの問題設定 Pytorch-geometricによるモデル構築 GNNの概要と Heterogeneous Graph について簡単に説明をした後に、実際にモデルを作成していく流れで展開していきま

                                                                  Heterogeneous Graphでグラフニューラルネットワークの学習をやってみた - NTT Communications Engineers' Blog
                                                                • ノートPC向けRTX 4090の性能はデスクトップ向けRTX 3090越え。レビューで判明

                                                                  ノートPC向けGeForce RTX 4090ではデスクトップ向けのGeForce RTX 4080で搭載されているAD103 GPUが採用されており、CUDAコアは9728基、動作クロックは各OEMが設定する消費電力量によって異なるものの、最大80Wであれば1455 MHz、最大150Wであれば2040 MHzに設定されます。 VRAM仕様は16GBのGDDR6を搭載し、バス幅は256-bit接続、帯域幅は576GB/sを発揮する仕様になっています。 なお、消費電力は各OEMで設定が可能で最小は80W、最大値は150Wでさらに条件が整えば追加で25Wで最大175Wでの動作も可能になっています。 NotebookCheckが掲載したRTX 4090搭載MSI TITAN GT77HX 13Vの3DMark FireStrikeベンチマークでは49247ptのスコアを記録しており、デスクトッ

                                                                    ノートPC向けRTX 4090の性能はデスクトップ向けRTX 3090越え。レビューで判明
                                                                  • CUDA 10.xのDockerイメージをローカルでビルドする - Qiita

                                                                    1. はじめに https://hub.docker.com/r/nvidia/cudaを見るとわかるようにEOLとなったCUDAバージョンのDockerイメージが削除されています。ただし、Web上にある公開実装ではCUDA 10.x系のDockerイメージを使っていることがあり、これらの動作確認をするときに困ります。 幸いにもDockerイメージ作成環境はhttps://gitlab.com/nvidia/container-images/cudaにて公開されているため、ここでは以下のDockerイメージをローカルでビルドすることを試みます。 nvidia/cuda:10.2-base-ubuntu18.04 nvidia/cuda:10.2-runtime-ubuntu18.04 nvidia/cuda:10.2-devel-ubuntu18.04 nvidia/cuda:10.2-c

                                                                      CUDA 10.xのDockerイメージをローカルでビルドする - Qiita
                                                                    • Deep Learning Reproducibility with TensorFlow

                                                                      This video shows how to get deterministic outputs when using TensorFlow, so that the outputs are reproducible. Everything should be perfectly repeatable. I created a Jupyter notebook to demonstrate this at: https://github.com/ageron/handson-ml/blob/master/extra_tensorflow_reproducibility.ipynb Researchers at Two Sigma managed to get reproducible outputs on the GPU using TensorFlow, but it wasn't

                                                                        Deep Learning Reproducibility with TensorFlow
                                                                      • [Latent Diffusion] AIでテキストから画像を生成する

                                                                        初めに、論文発表元のGithubからソースコードを取得します %cd /content !git clone https://github.com/CompVis/latent-diffusion.git 次にライブラリをインストールします。 %cd /content !git clone https://github.com/CompVis/taming-transformers !pip install -e ./taming-transformers !pip install omegaconf>=2.0.0 pytorch-lightning>=1.0.8 torch-fidelity einops import sys sys.path.append(".") sys.path.append('./taming-transformers') from taming.models

                                                                          [Latent Diffusion] AIでテキストから画像を生成する
                                                                        • 「NVIDIA CUDA Toolkit」に整数オーバーフローの脆弱性、v11.6 Update 2への更新を/任意コードの実行やサービス拒否(DoS)、情報漏洩につながる可能性

                                                                            「NVIDIA CUDA Toolkit」に整数オーバーフローの脆弱性、v11.6 Update 2への更新を/任意コードの実行やサービス拒否(DoS)、情報漏洩につながる可能性
                                                                          • 52. Split into a row | Researchat.fm

                                                                            ゲストにkotoneさんを招き、ディープラーニング、機械学習とそのアルゴリズムや計算用マシンについて話しました。Show notes 機械学習 (Wikipedia) ディープラーニング(深層学習) (Wikipedia) ニューラルネットワーク (Wikipedia) パーセプトロン (Wikipedia) GPU (Wikipedia) ディープラーニング入門 Chainer チュートリアル 株式会社 Preferred Networks Chainer NVIDIA CUDA-X GPU-Accelerated Libraries for AI and HPC Preferred Networks、1024個のGPUでディープラーニングの世界最高速を実現と発表 NARUTO -ナルト- 疾風伝 ナルト全巻セット ImageNet…学習用の画像データセット 畳み込みニューラルネット(W

                                                                              52. Split into a row | Researchat.fm
                                                                            • 大規模言語モデルを動作させる時に必要なVRAMの使用量を推定してくれる「VRAM Estimator」

                                                                              大規模言語モデルを動作させるには、演算処理にGPUを使用するため、グラフィックスメモリ(VRAM)の容量が重要になります。「VRAM Estimator」はさまざまなモデルで必要となるVRAMの容量をシミュレーションで予測するウェブアプリです。 VRAM Calculator https://vram.asmirnov.xyz/ VRAM Estimatorにアクセスするとこんな感じ。 左上の「Running Parameters」で演算内容を指定します。Inference(推論)の場合、Precision(精度)でbf16/fp16か、fp32を選択し、Sequence Length(シークエンス長)・Batch Size(バッチサイズ)・Number of GPUs(GPU数)を指定できます。 Training(学習)の場合、Precisionで「mixed(混合精度)」か「full(

                                                                                大規模言語モデルを動作させる時に必要なVRAMの使用量を推定してくれる「VRAM Estimator」
                                                                              • みんなのパソコンで走らせたいソフトがガラリと変わってきた!

                                                                                《有料サービス》《新しい情報》《よいマシン》がパソコンを上手に使う条件だ 去年の途中くらいまでは、Intel Core i5 2.30GHzでもまるで困らなかったのが、ちょっとそれでは足りないと感じるようになってきた。そこで、ひさしぶりに新しいコンピューターを導入。ふだん持ち歩くノートPCとして、HP ProBook 635 Aero G8を2週間ほど前から使っている。 要するに、みんながコンピューターで使いたいソフトウェアが大きく変わりはじめているのがいまだと思う。SteamやVRChat、UnityやUnreal Engine、MetaMaskなど。3Dゲームで世界的にヒット中のRoblox、フォトグラメトリの3DF Zephyrは、触りはじめたところだ。 新しいマシンがノートPCである理由は、リモートワークの日々が続いているからだ。自宅からがほとんどだが、秋葉原からほど近い3331に

                                                                                  みんなのパソコンで走らせたいソフトがガラリと変わってきた!
                                                                                • DLSS 2.0をレビュー、GeForce RTXの価値を爆上げするWQHD&4K時代の救世主 (1/4)

                                                                                  NVIDIAのGeForceファミリーは現在、ミドルクラス以下がコスト志向のGTX 16シリーズ、メインストリーム~ハイエンドは付加機能と性能を重視したRTX 20シリーズという2系統の製品ラインが存在する。どちらもTuringアーキテクチャーなのだが、リアルタイムレイトレーシング(DXR)の処理の一部を実行するRTコアと、AIを利用した描画負荷軽減機能と言える「DLSS(Deep Learning Super Sampling)」を提供するTensorコアは、上位のRTX 20シリーズだけに実装されている。 DXRはRTコアを持たなくてもCUDAコアを利用して処理できる(ただし、一部モデルのみ。そして、遅い)が、DLSSについてはTensorコアのないGeForceでは動かせない。ゆえに、RTX 20シリーズの真の強みは、DLSSであると言っても良いだろう。 今回、NVIDIAはこのDL

                                                                                    DLSS 2.0をレビュー、GeForce RTXの価値を爆上げするWQHD&4K時代の救世主 (1/4)