並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 1472件

新着順 人気順

CUDAの検索結果161 - 200 件 / 1472件

  • 西川善司の3DGE:GeForce RTX 40完全解説。シェーダの大増量にレイトレーシングの大幅機能強化など見どころのすべてを明らかに

    西川善司の3DGE:GeForce RTX 40完全解説。シェーダの大増量にレイトレーシングの大幅機能強化など見どころのすべてを明らかに ライター:西川善司 GeForce GPUの新世代となる「GeForce RTX 40」シリーズが,10月12日にいよいよ発売となる(関連記事)。 GeForce RTX 40の開発コードネームは「Ada Lovelace」(エイダ・ラブレス,以下 Ada)。NVIDIAは,「GeForce 8800 GTX」以降のGPUに付ける開発コードネームに,物理学者やコンピュータサイエンス研究者の名前を冠している。Adaは,19世紀の数学者であり世界初のコンピュータプログラマ(もちろん機械式計算器だ)として知られるAda Lovelace氏にちなんだものだ。 本稿では,Ada世代のGeForce RTX 40が搭載する新技術や新機能がどのようなものなのか,新機能

      西川善司の3DGE:GeForce RTX 40完全解説。シェーダの大増量にレイトレーシングの大幅機能強化など見どころのすべてを明らかに
    • GCPでのディープラーニング学習環境構築方法 - Qiita

      GCP(Google Cloud Platform)でディープラーニング学習環境構築方法 背景 ようやくDockerでのディープラーニングGPU学習環境構築に成功した @karaage0703 。疲れを癒す間も無く、ディープラーニングの帝王Google社のデベロッパーアドボケイトから、新たなる天啓がくだる。 度々からあげさんの記事を引用して恐縮ですが、もしGCPを使う場合は、このあたりをまるっとイメージにまとめたDeep Learning Containersってのもあります。ポチるだけでCUDA/TF/Jupyter/その他全部入りのコンテナをGKEで動かせます。 #gcpjahttps://t.co/tszxsK6sichttps://t.co/VMo9OHBjUp — Kazunori Sato (@kazunori_279) August 7, 2020 CUDAドライバ周り、誰し

        GCPでのディープラーニング学習環境構築方法 - Qiita
      • ゼロからはじめるPython(106) プログラム生成AIのCodeLlamaを手元のPCでも動かしてみよう

        ChatGPTを筆頭にした「大規模言語モデル(LLM)」と呼ばれるAIが話題に上らない日はない。このAIが得意なタスクには「プログラムの自動生成」が挙げられるが、Metaからプログラム生成に特化したCodeLlamaが商用利用可能なオープンなライセンスでリリースされた。そこで実際に使ってみよう。 CodeLlamaで素数判定のプログラムを自動生成させたところ プログラミングは大規模言語モデルが得意とするタスク リリースからわずか2ヶ月で1億ユーザーを達成した「ChatGPT」の公開から本稿執筆時点で8ヶ月が過ぎた。筆者も業務でChatGPTをはじめ、Github Copilotなど、大規模言語モデル(LLM)関連サービスを使わない日はないくらいだ。 特に「プログラミング」は、間違いなく大規模言語モデルが得意とするタスクであり、GitHub Copilotを利用している多くの人がその利便性を

          ゼロからはじめるPython(106) プログラム生成AIのCodeLlamaを手元のPCでも動かしてみよう
        • Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary

          この記事について 深層強化学習を利用してAI RC Carの走行を学習させるソフトウェアをGithub上で公開しています。learnign_racerと命名しました。2020年4月29日の時点でのバージョンはv1.0.0です。この記事ではこのソフトウェアについて紹介していきます。 github.com なお、NVIDIAのJetson Community Projectsのページでも紹介されています。 developer.nvidia.com learning_racerの概要 このソフトウェアは10分から15分程度の学習時間で、コースに沿って走行する方法を獲得することができます。従来のAI RC Carでは人間のお手本操作をDNNに覚えこませる手法が一般的です1。ですが、本手法は教師なし学習の手法である強化学習をベースとしているため、教師データとなる人間のお手本操作は必要ありません。さら

            Jetson Nanoで動く深層強化学習を使ったラジコン向け自動運転ソフトウェアの紹介 - masato-ka's diary
          • Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics

            皆さんこんにちは 機械学習チームYAMALEXの@tereka114です。 YAMALEXは Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) 日々、LLMが進化していて、画像が本職(のはず)の私ですら、ここ数年LLMの勉強をはじめています。 学習してモデル公開しましたといった記事はよく見ますが、今回は今、非常に注目されている日本に拠点があるAIスタートアップである「Sakana.ai」が公開した「Evolutionary Model Merge」を使う話をします。 Evolutionary Model Merge 「Evolutionary Model Merge」は「Sakana.ai」から発表された進化的モデルマージと呼ばれる技術です。 端的に言ってしまえば、複数のモデルを利用して新し

              Sakana.aiが公開した「Evolutionary Model Merge」手法を「mergekit」で実施してみる - Taste of Tech Topics
            • ゼロから作るDeep Learning ❸

              大ヒットを続ける人気シリーズの第3弾。今回は「DeZero」というディープラーニングのフレームワークをゼロから作ります。DeZeroは本書オリジナルのフレームワークです。最小限のコードで、フレームワークのモダンな機能を実現します。本書では、この小さな――それでいて十分にパワフルな――フレームワークを、全部で60のステップで完成させます。それによって、PyTorch、TensorFlow、Chainerなどの現代のフレームワークに通じる知識を深めます。キャッチフレーズは――作るからこそ、見えるモノ。 関連ファイル サンプルコード 正誤表 ここで紹介する正誤表には、書籍発行後に気づいた誤植や更新された情報を掲載しています。以下のリストに記載の年月は、正誤表を作成し、増刷書籍を印刷した月です。お手持ちの書籍では、すでに修正が施されている場合がありますので、書籍最終ページの奥付でお手持ちの書籍の刷

                ゼロから作るDeep Learning ❸
              • 新型コロナウイルスの解析システムがスーパーコンピューターを超える処理速度に達したとの報告

                世界中で猛威を振るう新型コロナウイルス感染症(COVID-19)の治療法を発見すべく、Folding@homeは分散コンピューティングによって、新型コロナウイルスが持つたんぱく質の構造を解析するプロジェクトを推進しています。Folding@homeは個人のPCでも参加が可能で、その処理速度は世界最速のスーパーコンピューターをもしのぐ速度に達したと報告されています。 Folding@home – Fighting disease with a world wide distributed super computer. https://foldingathome.org/ Folding@home Now More Powerful Than World's Top 7 Supercomputers, Combined | Tom's Hardware https://www.tomshar

                  新型コロナウイルスの解析システムがスーパーコンピューターを超える処理速度に達したとの報告
                • TrOCRでファインチューニング - Qiita

                  from transformers import TrOCRProcessor processor = TrOCRProcessor.from_pretrained("microsoft/trocr-small-printed") TrOCRProcessorは、特徴抽出器とトークナイザをラップしただけです。任意の特徴抽出器とトークナイザを使えます。google/vit-base-patch16-224-in21k や cl-tohoku/bert-base-japaneseなど 事前学習モデルを選択 事前学習モデルが9種類ありますが、すべて10epochsほど試し一番いいので学習させるのがよいかもです。 from transformers import VisionEncoderDecoderModel import torch device = torch.device("cuda"

                    TrOCRでファインチューニング - Qiita
                  • Stable Diffusionで画質を爆上げするテクニック【txt2imghd】を紹介 - Qiita

                    txt2imgの基本についてはこちらをご覧ください。 はじめに Stable diffusionのイカしたテクニック、txt2imghdの仕組みを解説します。 簡単に試すことのできるGoogle Colabも添付しましたので、是非お試しください。 ↓の画像は、通常のtxt2imgとtxt2imghdで生成した画像を拡大して並べたものです。明らかに綺麗になっていることがわかります。 TL;DR txt2imghdとは、通常のtxt2imgにimg2imgと超解像技術を組み合わせることでStable diffusionで作成した画像のクオリティーを大幅に上昇させるテクニックです。 ※既に作成した画像に用いることも可能です。 実際のコードはこちらのリポジトリから確認できます。 またこちらから私が作成したGoogle Colabバージョンにアクセスできます。 txt2imghdの仕組み Stabl

                      Stable Diffusionで画質を爆上げするテクニック【txt2imghd】を紹介 - Qiita
                    • WSL2でSakana AIを試してみる|ngc-shj

                      「進化的モデルマージにより日本語数学LLMとして構築したEvoLLM-JPは、数学のみならず、日本語の全般的な能力に長けている」らしいEvoLLM-JPを試してみます。 追記(2024/3/22) 10Bのモデルですが、torch_dtypeを"auto"からtorch.bfloat16に変更すると、推論のスピードが改善しました。 モデルEvoLLM-JPは、3種提供されています。今回は3つとも試します。 - 大規模言語モデル SakanaAI/EvoLLM-JP-v1-10B : MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-v1-7B :  MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-A-v1-7B : Apache License, Version 2.0 ※画像言語

                        WSL2でSakana AIを試してみる|ngc-shj
                      • Pythonライブラリ 画質向上(超解像):Real-ESRGAN|KIYO

                        1.緒言 低い画質の画像を高画質に変える技術である”超解像”技術のライブラリである"Real-ESRGAN"ライブラリを紹介します。 公式より、Real-ESRGANの使用方法は下記3つがあり、とにかく簡単に試したいならOnline inferenceが便利であり「https://arc.tencent.com/en/ai-demos/imgRestore」からWebアプリベースで実施できます。 【Real-ESRGANの使用方法】 Online inference:Webアプリで簡単に実行できる Portable executable files (NCNN):ー Python script:今回の記事で作成した通りPythonで実行 2.環境構築 基本的な実装方法はGitHubの"Installation"を参照しました。 私のPC環境ではCUDAのメモリに乗らないためGoogle C

                          Pythonライブラリ 画質向上(超解像):Real-ESRGAN|KIYO
                        • コンピュータビジョン分野における世界最高峰の国際会議CVPR2022の論文紹介(後編) - NTT Communications Engineers' Blog

                          目次 目次 はじめに 論文紹介 The Norm Must Go On: Dynamic Unsupervised Domain Adaptation by Normalization OcclusionFusion: Occlusion-aware Motion Estimation for Real-time Dynamic 3D Reconstruction EPro-PnP: Generalized End-to-End Probabilistic Perspective-N-Points for Monocular Object Pose Estimation Cascade Transformers for End-to-End Person Search TrackFormer: Multi-Object Tracking With Transformers Global T

                            コンピュータビジョン分野における世界最高峰の国際会議CVPR2022の論文紹介(後編) - NTT Communications Engineers' Blog
                          • Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)

                            最近流行りのテキストから画像を生成する機械学習モデルが一般公開されたとのことで、興味本位で触ってみました。ざっと書いちゃったので、後で見直すかも。 目的 GPUアクセラレーションを活かしつつコンテナ内でStable Diffusionのモデルを動かしたい。メインPCなのでLinuxじゃなくWindowsを使いたい。 前提条件 以下のスペックのPCで、本記事の内容を実行しました。 OS: Microsoft Windows 11 Pro CPU: AMD Ryzen7 3700X メモリ: 32GB ストレージ: 1TB GPU: nVidia Geforce RTX 3080(10GB) とりあえず、OSとGPUベンダーだけそろっていれば本記事の内容は実行できると思います。 ちなみに、Windows 10の場合はInsider版を使えばCUDA on WSL2が可能です。(つまり、本記事の

                              Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)
                            • NVIDIA、macOSをサポートした最後のCUDA Toolkiをv10.2リリース。次期アップデートでmacOSは非サポートに。

                              NVIDIAがCUDA Toolki 10.2をリリースすると共に、次期アップデートからはmacOSは非サポートになると発表しています。詳細は以下から。 NVIDIAは現地時間2019年11月17日、ToolkitとNVIDIAドライバを含んだCUDA v10.2をリリースしましたが、同リリースノートによると、CUDA Toolkit v10.2はmacOSをサポートする最後のアップデートとなるそうです。 CUDA 10.2 (Toolkit and NVIDIA driver) is the last release to support macOS for developing and running CUDA applications. Support for macOS will not be available starting with the next release of

                                NVIDIA、macOSをサポートした最後のCUDA Toolkiをv10.2リリース。次期アップデートでmacOSは非サポートに。
                              • NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる

                                NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる 米NVIDIAは10月31日、サポートページ内にあるナレッジベースに掲載する形で、「Stable Diffusion」に関する動作の仕様について情報を公開した。生成AIを手軽に楽しめる「Stable Diffusion」におけるTipsがまとまっている。 NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる Stable Diffusionは、利用にあたって大容量のGPUメモリ(VRAM)が必要になる。NVIDIAではおおよそ6GB以上必要であるとしているが、モデルやスクリプトによってはより大規模なGPUメモリが必要になることもある。これを受けてバージョン536.40以降のド

                                  NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる
                                • LLM開発のための環境構築

                                  はじめに 株式会社Elithの大森一祥です。AIテックカンパニーの一員として、お客様の課題をAIを駆使して解決しています。 大規模言語モデル(LLM)が人間と匹敵する性能を発揮することもあり、弊社には多岐にわたるプロジェクトの依頼が寄せられています。最近は、情報漏洩のリスクを回避するため、独自のLLMの開発を希望されることが多いです。このような案件では、一般に公開されたモデル(ローカルLLM)を利用します。 ローカルLLMを活用して課題を解決する方法として、以下の4つが挙げられます。 プロンプトエンジニアリング:LLMに特定の出力を生成させるための入力文の工夫する手法 RAG:外部の文章データベースから、質問に類似した文章を取り出しLLMの入力として用いる手法 インストラクションチューニング:ユーザの指示に沿った出力を生成することを目的としたチューニング手法 継続事前学習:LLMモデルに対

                                    LLM開発のための環境構築
                                  • Stable DiffusionでSeedを固定して同じ絵を生成できるのか問題を検証

                                    Stable Diffusionでseedを固定して同じ絵を生成できるのか問題 Stable Diffusionでseed値を固定すると同じ絵を生成できるのかが(私の中で)話題です。 きっかけは、shi3zさんとdrikinさんの動画のラストの1,2分。 Seedを固定すると同じ絵が出ると主張するdrikinさんと、そんなことはないんじゃないかといい、その場で実践して確かめるshi3zさん。 自分も、GPUを多用するディープラーニングの演算だと、seed固定しても経験的に完全再現できないことを体感していたのと、当時調べたら「GPUでは完全再現は難しい」という情報が多かったので、seed値を固定しても、結果は再現できないものとずっと思っていました。 でも、Stable Diffusionの実験して挙動みてると、同じpromptとseed値から同じ絵が再現できていそうなんですよね。 その後も繰

                                      Stable DiffusionでSeedを固定して同じ絵を生成できるのか問題を検証
                                    • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第24回:照明を自由にコントロールできるIC-Light登場!(西川和久) | テクノエッジ TechnoEdge

                                      lllyasviel氏復活第一弾のIC-Light前回(第23回)にControlNetやFooocus、stable diffusion webui forgeを作ったlllyasviel氏、ここ数ヶ月Xなどに書き込みが無いと書いたが、いきなり驚くべき仕掛けを提げての復活。その名もIC-Light(Imposing Consistent Light)。Stable Diffusionの技術を使って、照明を自由にコントロールできる仕掛けだ。 これまでStable Diffusionでは、SD 1.5、SDXLに関わらず、Promptで光や照明などの指示はできたのだが、どのように反映されるかは、Modelやその他の設定しだい。例えば backlight, soft bounced lighting, soft natural lighting, candolelight, neon ligh

                                        生成AIグラビアをグラビアカメラマンが作るとどうなる?第24回:照明を自由にコントロールできるIC-Light登場!(西川和久) | テクノエッジ TechnoEdge
                                      • WSL 2 GPU Support is Here | Docker

                                        At Microsoft Build in the first half of the year, Microsoft demonstrated some awesome new capabilities and improvements that were coming to Windows Subsystem for Linux 2 including the ability to share the host machine’s GPU with WSL 2 processes. Then in June Craig Loewen from Microsoft announced that developers working on the Windows insider ring machines could now make use of GPU for the Linux wo

                                          WSL 2 GPU Support is Here | Docker
                                        • 転職してから4年が経ちました - Vengineerの戯言

                                          はじめに 転職してから4年が経ちました。転職時書いたブログはこちらです。 vengineer.hatenablog.com 記録としてブログに残すことにしました。 50過ぎのオッサンが スタートアップに転職して エンジニアとして働いた4年間を記録としてブログに残します— Vengineer@ (@Vengineer) 2022年5月28日 上記は5/28(土)の21時頃ツイートしましたが、5/29(日)の17時頃(200♡)を超えた頃から一気に伸びてきて、5/30(月)の7時には700♡を超えちゃいました。そして、5/30(月)の12時には800♡を超えちゃいました。5/30(月)の18時には900♡を超えちゃいました。どうやら、999♡になった模様。何だが凄いことになってしまった。 こんな状態なるとは、思わなかったですよ。。。 具体的な内容は、さし飲みや1時間の1on1ですら話さないので

                                            転職してから4年が経ちました - Vengineerの戯言
                                          • 大規模言語モデルRWKVをローカルPCで試す|Ko Onuma

                                            清水亮さんが、RWKVを試してたので俺も試してみた。 この時の清水さんのマシンは、A6000積んでる(VRAM48GB)逸般のご家庭用モンスターマシンなので、そのまま動く。そらそうよ。 というわけで、一般のご家庭用ゲーミングPCでも動くように試してみた。 ちなみに試した環境はWindowsのWSLのubuntu上。 マシンのメモリは64GB。ubuntuには48GB割当。 GPUはRTX3090(VRAM 24GB)。 まずはChatRWKVをgitでcloneする。 git clone https://github.com/BlinkDL/ChatRWKV次にモデルをダウンロードする。 14Bを使うことにした。 ChatRWKV/v2フォルダにダウンロードしてきたモデルファイルを突っ込む。 今回は最新版の RWKV-4-Pile-14B-20230313-ctx8192-test1050

                                              大規模言語モデルRWKVをローカルPCで試す|Ko Onuma
                                            • GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ

                                              GPUはCPUよりもはるかに多くのコアを備えており、多数の並列処理を行う事が可能です。そうしたGPUの性能を活用するために必要な知識を、ITエンジニアのリジュル・ラジェシュさんがブログにまとめています。 GPU Survival Toolkit for the AI age: The bare minimum every developer must know https://journal.hexmos.com/gpu-survival-toolkit/ 現代のAIモデルで使用されているTransformerアーキテクチャは並列処理を活用して大きく性能を向上させており、そうしたAIの開発に関わる場合は並列処理についての理解が必須になってきます。CPUは通常シングルスレッドの逐次処理性能が高まるように設計されており、複雑なAIモデルで必要となる、多数の並列計算を効率的に分散して実行するのに

                                                GPU・CUDAを活用して数値計算やAIのトレーニングを高速化するのに必要な基礎知識のコード例付きまとめ
                                              • LINE LLMをMacで動かす - きしだのHatena

                                                先日、LINE(現LINEヤフー)のNLP Foundation Devチームから日本語言語モデルが公開されました。(以降LINE LLMと表記します) 36億パラメータの日本語言語モデルを公開しました Instruction Tuningにより対話性能を向上させた3.6B日本語言語モデルを公開します でも「NVIDIAのGPUがないと動かないんでしょ」と、試していない人も多いんではないでしょうか。 そこでこのブログでは、MacでLINE LLMを動かす手順をまとめたいと思います。 Windowsや他のLLMでもほぼ同じ手順で動かせるはずです。 次のような手順で進めます。 pythonインストール ライブラリインストール 1.7Bのサンプルコードを動かす チャットインタフェースで1.7Bを動かす CTranslateによる3.6B llama.cppによる3.6B Pythonインストール

                                                  LINE LLMをMacで動かす - きしだのHatena
                                                • GitHub - chrxh/alien: ALIEN is a CUDA-powered artificial life simulation program.

                                                  Artificial LIfe ENvironment (ALIEN) is an artificial life simulation tool based on a specialized 2D particle engine in CUDA for soft bodies and fluids. Each simulated body consists of a network of particles that can be upgraded with higher-level functions, ranging from pure information processing capabilities to physical equipment (such as sensors, muscles, weapons, constructors, etc.) whose execu

                                                    GitHub - chrxh/alien: ALIEN is a CUDA-powered artificial life simulation program.
                                                  • GCPにゲーミングPCを作成する方法

                                                    注意点 事前にGPUを利用する上限緩和申請が必要 画面転送ソフトParsecで初回にログインする時は少し工夫が必要 GPUについてもPreemptibleで起動する際は、事前に申請が必要 下準備 上限緩和は申請が下りるまで時間がかかるので、先に実施しておきましょう。 Parsecアカウントの取得 先にParsecアカウントは取得しておき、自分のPCやMacにParsecをインストールしておきましょう。 上限緩和申請 事前にPreemptibleのリソースを利用する申請を行います。 例として、GPUの申請方法を記載します。 GCPコンソールから「IAMと管理」、「割り当て」を選択 割り当てリソースをフィルタで絞ります。 GPUは「Virtual Workstation」がついたTesla T4 を選択します。 リージョンは東京を選択、割り当てを選択します。 必要な事項を入力 リクエスト数と理

                                                    • Kaggle GPU用Win11(HOME)+WSL2+nvidia-dockerの構築(2023.03.18版) - Qiita

                                                      対象範囲 🏃‍♂️ Win初期化された状態からスタート 💻 GPUは3060(Laptop) 🚩 ゴールは、ローカルでKaggle公式のDockerImageでGPUが使えるところまで [任意]Win初期化-WindowsUpdate 綺麗な状態からスタートしたい方はここからがよいかと思います。 Winの初期化は「設定」->「回復」->「PCをリセットする」で可能です 初期化完了後はひたすらWindowsUpdate。 NVIDIA Driverのダウンロード(CUDA) CUDAのバージョンはローカルとKaggleKernelをできるだけ合わせておきたいので、確認します KaggleKernelのCUDA Versionの確認 PS C:\Users\hoge> nvidia-smi Sat Mar 18 12:58:39 2023 +-----------------------

                                                        Kaggle GPU用Win11(HOME)+WSL2+nvidia-dockerの構築(2023.03.18版) - Qiita
                                                      • LLaVAを使っておうちのパソコンでも画像からコード生成 - きしだのHatena

                                                        ChatGPTが画像対応して、画像からいろいろなコードが生成できて楽しいことになっていましたが、同じようなことをおうちで動かせるLLaVAが出ていたので試してみました。 GPUはVRAM 12GBあれば十分、8GBはギリギリという感じ。 LLaVA-1.5 先週、LLaVAのバージョンアップ版、LLaVA-1.5が出てました。 🚀 LLaVA-1.5 is out! Achieving SoTA on 11 benchmarks, with simple mods to original LLaVA! Utilizes merely 1.2M public data, trains in ~1 day on a single 8-A100 node, and surpasses methods that use billion-scale data. 🔗https://t.co/y0k

                                                          LLaVAを使っておうちのパソコンでも画像からコード生成 - きしだのHatena
                                                        • ChatGPT-4 と始める機械学習アプリ開発入門! - Qiita

                                                          1. はじめに 本記事は、ChatGPTを活用してみたいけれど、どうやって使うの?という方向けの、「ChatGPTと始める」シリーズ第3弾として、機械学習アプリの開発に取り組みます! (「ChatGPTと始める」シリーズ第1弾, 第2弾はこちらです。どちらもたくさんのいいねをありがとうございます。) 今回は「猫の品種判別アプリ」を題材に、ChatGPT-4 にどのように機械学習アプリの開発を手伝ってもらうかについて順を追って説明します。 ChatGPTのおかげで、機械学習に対するハードルが大幅に下がったため、機械学習に挑戦したいと思っていたエンジニアの方々にも、ぜひトライしていただきたいです! 2. アプリの仕様を相談しよう! 2.1. 転移学習について 今回は「猫の品種判別アプリ」を作ってみようと思います。 先に完成品のキャプチャ動画を貼っておきます。 一例として「猫の品種判別アプリ」を

                                                            ChatGPT-4 と始める機械学習アプリ開発入門! - Qiita
                                                          • NVIDIA、macOSのサポートを正式に終了した「CUDA Toolkit v11」をリリース。MacではCUDAアプリの開発と実行は出来ない状態に。

                                                            NVIDIAがmacOSのサポートを正式に終了した「CUDA Toolkit v11」をリリースしています。詳細は以下から。 NVIDIAは現地時間2020年06月05日、GPUプログラミング開発ツール「CUDA Toolkit」をバージョンv11(v11.0.171)へアップデートし、昨年11月にアナウンスしていたとおりmacOSのサポートを正式に終了したと発表しています。 CUDA 11.0 does not support macOS for developing and running CUDA applications. Note that some of the CUDA developer tools are still supported on macOS hosts for remote (target) debugging and profiling. See the

                                                              NVIDIA、macOSのサポートを正式に終了した「CUDA Toolkit v11」をリリース。MacではCUDAアプリの開発と実行は出来ない状態に。
                                                            • Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法

                                                              Stable Diffusionをローカルで手軽に動かす方法 Stalbe Diffusion話題ですね。ただネックなのはGPUが必要な点です。GPUを持ってない人や、CUDAはよくわからない/絶対に入れたくないという人もいるでしょう。クラウドを使う方法もありますが、色々な事情で使えない/使いたくない人もいるでしょう。 そんな全世界のStable Diffusion難民に朗報です。Stable DiffusionがIntel CPUで動きます。しかもWLS2で動くので、大体のWindows PCで動きます。 以下のstable_diffusion.openvinoを使うだけです。 OpenVINOの説明は省略します。とにかくIntel CPUに最適化されたエッジコンピューティングのすごいヤツです(雑) セットアップ方法 前提 Intel CPU Windows OS 11にWSL2をインス

                                                                Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法
                                                              • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

                                                                はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日本語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUのVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

                                                                  【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】
                                                                • 驚くほどキレイな三次元シーン復元、「3D Gaussian Splatting」を徹底的に解説する - Qiita

                                                                  はじめに 最近、3D業界で大きな衝撃を与えた「3D Gaussian Splatting」1について、ご存知でしょうか?数少ない写真から、目を奪われるほど美しい三次元シーンを再構成できるデモを見て私も大感動しました。なぜこんなに美しいのか、どんな技術で実現したのか、興味が湧いています! "普通の3D物体ではなく、カメラの移動に合わせて、水面に映る景色も正確に表現しています。これはなかなか凄い..." 私も時間をかけて論文や公開されたコード2を勉強しました。本家の実装はCUDA化されており、難解な部分が多く、論文に書かれていないこともあります。そのため、「3D Gaussian Splatting」を勉強したい人にむけ、わかりやすい解説記事を書こうと思いました。単に概念や考え方だけでなく、ゼロから再実装できるように、すべてのロジックを数式として整理し、徹底的に解説しようと思います。 「3D

                                                                    驚くほどキレイな三次元シーン復元、「3D Gaussian Splatting」を徹底的に解説する - Qiita
                                                                  • 予期せぬバグの原因は「満月」だった

                                                                    技術者のバルトウォミェイ・クピアウ氏が、ローグライクゲーム「NetHack」の遊び方を学習するニューラルネットワークのトレーニングをする中で出会った、過去に見た中で最も不思議なバグについての話を披露しています。 So here's a story of, by far, the weirdest bug I've encountered in my CS career. Along with @maciejwolczyk we've been training a neural network that learns how to play NetHack, an old roguelike game, that looks like in the screenshot. Recenlty, something unexpected happened. pic.twitter.com/AF

                                                                      予期せぬバグの原因は「満月」だった
                                                                    • NvidiaによるArm買収の分かりやすい解説

                                                                      コンピュータの守護聖人であるアラン・チューリングは、トランジスタベースのコンピュータが存在する前の1950年に、AIに関する画期的な論文を書いた。チューリング賞がコンピュータ科学の最高の栄誉であることからも分かる通り、多くの優れたコンピュータ科学者がAIに取り組んでいる。さらに最近では、カナダ人2人とフランス人1人の計3人の研究者が、上記のすべてのイノベーションを可能にしたディープラーニング革命を主導した。 このようなコンピュータ科学の進歩はなだらかなものではない。科学はその代わりに、革命と挫折のサイクルで機能する。ハイプサイクルとも呼ばれるだろう。1950年以降、AIに大きな進歩がなかった年が何年もあった。AIの科学者はこれらの時をAIの冬と呼ぶ。 AIの最新のディープラーニング革命は、①膨大なデータ量②そのデータを処理するための膨大な計算量③オープン性の高い研究とオープンソースコード、

                                                                        NvidiaによるArm買収の分かりやすい解説
                                                                      • シングルGPUで動作するTransformer相当のRNNモデル RWKV-Raven-14Bを試してみた | DevelopersIO

                                                                        こんちには。 データアナリティクス事業本部 インテグレーション部 機械学習チームの中村です。 今回はシングルGPUで動作するTransformer相当のRNNモデル、という噂のRWKVについて試してみたいと思います。 RWKVとは TransformerベースのLLMと同等の性能を持つ、並列化可能なRNNモデルであり、Attentionフリー(Attention構造を持たない)なモデルです。 ライセンス形態がApache License 2.0かつ、シングルGPUでも動作する点が凄いところとなっています。 GitHub https://github.com/BlinkDL/RWKV-LM Huggin Face https://huggingface.co/BlinkDL Hugging Face側にモデルがいくつか公開されており、rwkv-4が付くものが最近よく話題で使用されているもので

                                                                          シングルGPUで動作するTransformer相当のRNNモデル RWKV-Raven-14Bを試してみた | DevelopersIO
                                                                        • 「GeForce RTX 3060 Ti」レビュー。ミドルクラスながら前世代のハイエンドGPUを超える性能は本当だった

                                                                          ミドルクラスながら前世代のハイエンドGPUを超える性能は本当だった NVIDIA GeForce RTX 3060 Ti Founders Edition Text by 宮崎真一 Turing世代のGeForce RTX 20シリーズに比べて,非常に高い価格対性能比を実現していることから,Ampere世代のGPUであるGeForce RTX 30シリーズは,ゲーマーの人気を集めている。しかし,一番下のモデルとなる「GeForce RTX 3070」(以下,RTX 3070)であっても,搭載製品の価格は7〜8万円ほどするので,手が届かないと嘆いてる人も多いのではないだろうか。 ミドルクラス市場向けのGeForce RTX 30シリーズを求める声に応える新型GPU「GeForce RTX 3060 Ti」(以下,RTX 3060 Ti)がいよいよ12月2日に登場する。 GeForce RTX

                                                                            「GeForce RTX 3060 Ti」レビュー。ミドルクラスながら前世代のハイエンドGPUを超える性能は本当だった
                                                                          • 世界コンピュータ将棋選手権予選敗退とその軌跡 - そーだいなるらくがき帳

                                                                            世界コンピュータ将棋選手権に我らが @bleu48 先生と出場しました。 ソフトウェアは @bleu48 さんが作ってて自分は関わっていないのだけどインフラ担当しました。 第31回世界コンピュータ将棋選手権 しかし我らがソフトウェア『二番絞り』は11位*1 二次予選敗退でした。 今日の二次予選結果です。 pic.twitter.com/JDPrN4weIQ— 48 (@bleu48) 2021年5月4日 敗戦の軌跡 今回はインフラ担当として大きな失敗をしてしまったので反省の意を込めて書きます。 早朝に問題に気付く 当初予定はGCPに用意されているNVIDIA A100 Tensor Core GPUを16枚指したモンスタースペック a2-megagpu-16g を利用予定でした。 a2-megagpu-16g はプレビューで申請が必要なのだけど、事前に問い合わせをして利用可能にし、予行練習

                                                                              世界コンピュータ将棋選手権予選敗退とその軌跡 - そーだいなるらくがき帳
                                                                            • [WebUI] Stable DiffusionベースモデルのCLIPの重みを良いやつに変更する

                                                                              簡単な記事なので前置きは省略します。 CLIPについて Stable Diffusionベースのモデルは、画像生成に際してテキストで条件づけを行う(a.k.a. txt2img)場合、CLIPという基盤モデルでテキストをベクトルに変換し、生成処理に渡しています。 つまり、入力したテキストをいかに的確に生成処理のモデルに伝えられるのかはCLIP(のようなテキストエンコーダー)の性能にかかっているわけですが、実はStable Diffusionに組み込まれているCLIPは、CLIPの中でも最強性能のものではありません。 適当に、画像のグラフに登場する点はそれぞれCLIPのバリアントで、上にあるモデルほど性能がいいと考えてください。 ここで、Stable Diffusion V1系に組み込まれているCLIPはL/14ですが、CLIPの中で最も性能の良いL/14@336pxに一歩遅れをとっているこ

                                                                                [WebUI] Stable DiffusionベースモデルのCLIPの重みを良いやつに変更する
                                                                              • GPU向けコンパイラの最適化の紹介と論文のサーベイ - Jicchoの箱

                                                                                この記事では,私の研究分野であるGPU向けコンパイラの最適化の紹介と論文のサーベイを行う. 以下,随時更新. 分岐発散 (Branch Divergence) 分岐発散とは Independent Thread Scheduling 分岐発散に対する最適化 Software based approaches Hardware based approaches その他 サーベイ論文 カーネル融合 (Kernel Fusion) Kernel Fusionとは 垂直融合(vertical fusion) 水平融合(horizontal fusion) Inner Thread Block Inter Thread Block カーネル融合に関する論文 その他のGPU関連の論文 Dimensionally redundant instruction elimination Others 分岐発散

                                                                                  GPU向けコンパイラの最適化の紹介と論文のサーベイ - Jicchoの箱
                                                                                • 期待のミドルハイクラスGPU「GeForce RTX 4070」を検証。RTX 3080並みの性能で消費電力を大幅に低減

                                                                                  RTX 3080並みの性能で消費電力を大幅に低減 NVIDIA GeForce RTX 4070 Founders Edition Text by 宮崎真一 2023年4月12日22:00,NVIDIAの新型GPU「GeForce RTX 4070」(以下,RTX 4070)のレビューが解禁となった。このRTX 4070は,「Ada Lovelace」世代のGPUで,型番から分かるとおり「GeForce RTX 4070 Ti」(以下,RTX 4070 Ti)の下位となるミドルハイクラスのモデルとなる。 GeForce RTX 4070 Founders Edition メーカー:NVIDIA メーカー想定売価:599ドル(約8万円,税別,国内未発売) 本稿で扱うNVIDIA純正の「GeForce RTX 4070 Founders Edition」は,価格が599ドル(税別)となっており

                                                                                    期待のミドルハイクラスGPU「GeForce RTX 4070」を検証。RTX 3080並みの性能で消費電力を大幅に低減