並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 5501件

新着順 人気順

GPUの検索結果41 - 80 件 / 5501件

  • これが日本のAIデータセンターだ、GPUサーバーを稼働できる18社・32施設

    生成AI(人工知能)に欠かせない高性能のGPU(画像処理半導体)を搭載したサーバーを大量に運用できる「AIデータセンター」は、日本にどれだけ存在するのか。日経クロステックが国内にある49社のデータセンター事業者を対象に調査したところ、18社による計画中を含む32施設があることが分かった。 今回、日経クロステックがデータセンター事業者に質問したのは、大規模言語モデル(LLM)のトレーニング(訓練)や推論に使う高性能GPUサーバーが稼働できるような施設と、その詳細だ。現時点では国内に18社が運営する26施設があり、今後さらに6施設が増える計画だ。 消費電力10kW超えのGPUサーバーを1ラックで複数台稼働 LLMのトレーニングには、米NVIDIA(エヌビディア)のAI用GPUである「H100」や「H200」を8個搭載する高性能GPUサーバーが向いているとされる。NVIDIA自身がH100を8個

      これが日本のAIデータセンターだ、GPUサーバーを稼働できる18社・32施設
    • ChatGPTの新画像生成、利用急増で無料ユーザー向け延期 「GPUが溶けてる」とCEO

      「残念ながら、無料レベルへの展開はしばらく遅れます」──米OpenAIのサム・アルトマンCEOは3月26日(現地時間)、前日発表した「ChatGPT」の新たな画像生成機能について、Xでそう発表した。予想をはるかに上回る人気で、「GPUが溶けている」という。 同氏は別の投稿で、「効率化に取り組む間、一時的にレート制限を導入する予定」で、無料ユーザー向けは提供を開始しても画像を生成できるのは「1日当たり3回」になると説明した。 アルトマン氏は現在、自分のXのプロフィール画像をアニメ風なものに変えている。 この機能のデモ動画では、写真に「アニメ調にして」というプロンプトを添えた結果を紹介している。アルトマン氏のプロフィールも、このデモで生成された画像も、少し“ジブリ風”(スタジオジブリ作品のよう)だ。 その後、Xには「Ghibli Syle」(ジブリ風)と指定したアニメ風画像が溢れた。 Open

        ChatGPTの新画像生成、利用急増で無料ユーザー向け延期 「GPUが溶けてる」とCEO
      • Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ

        この記事を書いたところ、たくさんの方から「リモートデスクトップを使えばいいしゃん」とツッコミを受けたので、比較してみました katsumakazuyo.hatenablog.com 結論から言いますと私の14インチのノートパソコンだと画面が、NMKDのGUIの画面が小さすぎてちょっといろいろ工夫が必要でした。デフォルトだと、こんな感じ。 リモートデスクトップの画面が当たり前ですが、通常のノートより一回り小さくて、さらにその内周にNMKDがはいるので、フォントの文字が極小サイズになってしまいます。 デスクトップ側の画面を175%とかにしたら、ギリいける感じでしたので、たぶん、そういった工夫が必要みたいです。 あと、Promptに文字を入れるのも、日本語モードになっていると、キーボード入力受け付けないみたいです。これ、気をつけないと。 あと、超当たり前ですが、できあがったファイルもリモート側に

          Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ
        • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

          GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

            GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?
          • DockerでのディープラーニングGPU学習環境構築方法 - Qiita

            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? DockerでGPU学習環境構築 背景 ディープラーニングでローカルPCのGPUを使った学習環境を構築した経験のある人は、一度はNVIDIAのドライバやCUDA周りでハマった経験があるのではないでしょうか?そんなバッドノウハウ(怪文章?)をまとめたQiita記事(TensorFlowでGPU学習させるためにCUDA周りではまったときの対処法)に、なんとNVIDIAの中の人(@ksasaki さん)から「Dockerを使えば…人類は幸せになれる(超意訳)」とのコメントをいただきました! 喜び勇んで、NVIDIAのドライバをアップデートした

              DockerでのディープラーニングGPU学習環境構築方法 - Qiita
            • 世界一安いGPUを求めて2024冬 - Qiita

              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 結論 スポットで使うならColab、Runpodが最強 ゲーミングPCでいいならどこかで買うかBREAJONでサブスクしよう だいたいRunpodさんがなんとかしてくれる 今回の記事について こんにちは!逆瀬川 ( https://x.com/gyakuse ) です!今日は最強のGPUプロバイダー決定戦をします。世は大GPU時代となりました。Valorantをやるにも、APEXをやるにも、ある程度高性能なGPUが必要です。League of Legends はノートパソコンでも遊べるのでおすすめです。 その他の利用として機械学習のモデ

                世界一安いGPUを求めて2024冬 - Qiita
              • GPUを使ったノイズキャンセリングがすごかった(5月12日追記)【高橋忍のにゃんともWindows】

                  GPUを使ったノイズキャンセリングがすごかった(5月12日追記)【高橋忍のにゃんともWindows】
                • NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に

                    NVIDIA、1パッケージに2ダイの新型GPU「Blackwell」。AI性能は学習4倍、推論30倍に
                  • クリプト暴落でGPUの叩き売りがはじまった

                    暗号通貨暴落でマイニング撤退が加速。 中国・東南アジアではシステムを解体してグラフィックボードをたたき売りするネカフェが早くも出現しています。 もうクリプトは当分反発しそうにないし、このままじゃ電気代の元がとれない、GPUが値崩れ起こす前に少しでも高く売って回収しないと…という焦燥感に駆られるように、ネットの競売、SNSのライブストリームで売りまくってる姿が確認されています。Baiduなどのフォーラムに出ている写真を見ても、デスクや床の上にむき出しのグラフィックボードが散乱していて、まるで撤兵後の野戦場です。 どれだけの安値で売られているのか?気になる相場はだいたいこんな感じです。 ・ NVIDIA GeForce RTX 3060 Ti :2,699元(約5万5000円) ・ NVIDIA GeForce RTX 3080:たったの1,399元(約2万8500円) や、安い…。安く出品し

                      クリプト暴落でGPUの叩き売りがはじまった
                    • 国会図書館が古典籍資料からテキスト抽出する軽量OCRツールを公開 ~GPUなしでも動作/「NDL古典籍OCR-Lite」のソースコードとバイナリが「GitHub」で公開

                        国会図書館が古典籍資料からテキスト抽出する軽量OCRツールを公開 ~GPUなしでも動作/「NDL古典籍OCR-Lite」のソースコードとバイナリが「GitHub」で公開
                      • 生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた

                        ではそもそも“1bit”とは何が1bitなのか、どうして1bitになるとGPUが不要になるのか。LLMでGPUが不要になるとどんな世界が訪れるのか。オーダーメイドによるAIソリューション「カスタムAI」の開発・提供を行うLaboro.AIの椎橋徹夫CEOに聞いた。 プロフィール:椎橋徹夫 米国州立テキサス大学理学部卒業後、ボストンコンサルティンググループに参画。消費財や流通など多数のプロジェクトに参画した後、社内のデジタル部門の立ち上げに従事。その後、東大発AI系のスタートアップ企業に創業4人目のメンバーとして参画。AI事業部の立ち上げをリード。東京大学工学系研究科松尾豊研究室にて「産学連携の取り組み」「データサイエンス領域の教育」「企業連携の仕組みづくり」に従事。同時に東大発AIスタートアップの創業に参画。2016年にLaboro.AIを創業し、代表取締役CEOに就任。 ──まず、1bi

                          生成AIでGPUがいらなくなる? 業界を揺るがす「1ビットLLM」とは何か、識者に聞いた
                        • Bolt Graphics、RTX 5090の10倍速いという「Zeus」 GPUを発表 | XenoSpectrum

                          米国のスタートアップBolt Graphicsは、NVIDIA RTX 5090と比較して最大10倍の性能を誇るという次世代GPU「Zeus」を発表した。最大2.25TBのメモリ容量と内蔵800GbEネットワークを特徴とし、レンダリング、科学計算、ゲーミング分野に革新をもたらす。開発者キットは2025年後半、量産は2026年後半を予定している。 革新的アーキテクチャと圧倒的な性能 (Credit: Bolt Graphics) カリフォルニア州サニーベールを拠点とするBolt Graphicsは、GPUアーキテクチャを一から再設計した「Zeus」を発表した。注目すべきは、昨今のトレンドとは異なりAIには一切言及せず、高品質レンダリング、HPC(高性能コンピューティング)、ゲーミングに特化した設計思想である。 創業者兼CEOのDarwesh Singh氏は「Zeusは消費電力を削減しながら性

                            Bolt Graphics、RTX 5090の10倍速いという「Zeus」 GPUを発表 | XenoSpectrum
                          • Intel、22年ぶりのディスクリートGPU「Iris Xe MAX」を正式発表

                              Intel、22年ぶりのディスクリートGPU「Iris Xe MAX」を正式発表
                            • 中国産CPUやGPUが続々発表、中国政府も力を入れる脱米国は現実化するか? (1/2)

                              中国製パーツだけでPCが動く環境が徐々にだができつつある。つまり電源やケース、ファンだけでなく、SSDやメモリー、CPU、ビデオカードまで中国企業が開発・製造したパーツが登場しているというわけだ。 以前にも本連載で、中国製パーツを組み立てて、Windowsのアプリまで動く様子について紹介している(「中国独自の命令セットのCPUとパーツを用いた「完全中国製PC」でWindowsアプリが動いたと話題に」)。その後、さらに新たに中国産パーツの新しい話題が出てきたので今回紹介していきたい。 独自命令セットのCPUを開発する龍芯科技 政府からの補助金で徐々に製品を実現し、ついに上場か まず独自命令セットを採用したCPU、「龍芯」をリリースしている龍芯科技は、前回紹介した「3A5000」の後、6月に「3C5000L」を発表した。3A5000と3C5000Lの違いは、前者がコンシューマー向けで後者がサー

                                中国産CPUやGPUが続々発表、中国政府も力を入れる脱米国は現実化するか? (1/2)
                              • “第三のプロセッサ”「DPU」とは? CPU、GPUとの違いは

                                関連キーワード 比較 | 制御 | 技術解説 「CPU」(中央処理装置)、「GPU」(グラフィックス処理装置)、「DPU」(データ処理装置)の3つのプロセッサは、システムの“頭脳”として複雑なコンピューティングを可能にする。各プロセッサは、それぞれどう違うのか。CPUの仕組みを解説した前編「いまさら聞けない『CPU』の基礎知識 その大切な役割とは?」、GPUを取り上げた中編「『GPU』はCPUと何が違う? 用途は画像処理だけじゃない」に続き、後編となる本稿はDPUに焦点を当てる。 DPUとは? これまでのプロセッサと何が違うのか? 併せて読みたいお薦め記事 CPUやGPUについてより深く知るには いまさら聞けない「CPU」と「GPU」の違い AIに最適なのはどっち? 工業大学がCPU×GPUのスパコンを導入 なぜ「GPU」なのか? PCの黎明(れいめい)期には、1個のプロセッサコア(演算装

                                  “第三のプロセッサ”「DPU」とは? CPU、GPUとの違いは
                                • 自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ

                                  最近オープンになる大規模言語モデル(LLM)が、軒並みGPT-4レベルの性能となっています Huggngfaceで無料でダウンロードできるのですが、問題は必要VRAM容量です 話題の、Command-r-Plusは、日本語性能について評価が高く、一部の性能はGPT-4並みと言われますが、さすがに大型で104Bパラメータもあるため、4bitに量子化しても60GB程度のVRAMが必要となります。 コンシューマークラスのGPUの最高峰、RTX4090は、VRAM24GBのため、command-r-plusをすべてGPUに載せて推論しようと考えると、3台のマルチGPUデスクトップが必要です しかし、RTX4090は450W消費のGPUのため冷却機構が大きく、1デスクトップに3台収めるのは至難の業となります。 先日、水冷ラジエーター付きRTX4090で、マルチGPUデスクトップを作成しました。 水冷

                                    自宅PCでクラスターを構築:コンシューマーGPUの枠を超え、大型LLMをローカルで動かす!|AIサトシ
                                  • AWS・Azure・Cudoなどが提供するクラウドGPUが1時間あたり何ドルで利用できてどういう構成なのかの一覧表

                                    ニューラルネットワークのトレーニングや実行にはGPUが使われることが多く、クラウドサービスのGPUの需要はAIの普及に伴い高まりつつあります。そんなクラウドGPUの構成や価格を、AI関連のニュース&コミュニティサイト・The Full Stackが公開しました。 Cloud GPUs - The Full Stack https://fullstackdeeplearning.com/cloud-gpus/ 表はクラウドサーバーとサーバーレスの2種類に分かれています。ピックアップされたサービスはAmazon Web Service(AWS)やMicrosoft Azure、Cudo Compute、Google Cloud Platform(GCP)、AWS Lambdaなど。Hugging Faceなど一部サービスの記載はありません。 クラウドサーバーの表がこんな感じ。最左列にサービス名

                                      AWS・Azure・Cudoなどが提供するクラウドGPUが1時間あたり何ドルで利用できてどういう構成なのかの一覧表
                                    • 画像生成AI「Stable Diffusion」を4GBのGPUでも動作OK&自分の絵柄を学習させるなどいろいろな機能を簡単にGoogle ColaboやWindowsで動かせる決定版「Stable Diffusion web UI(AUTOMATIC1111版)」インストール方法まとめ

                                      (2022/09/22 17:52更新)画像生成AI「Stable Diffusion」を簡単に利用するための実行環境の1つである「Stable Diffusion web UI」のコントリビューター(開発貢献者)の1人であるAUTOMATIC1111氏が、フォークではないものの同名で「機能全部盛り」なStable Diffusion web UI(AUTOMATIC1111版)の開発を進めています。 GitHub - AUTOMATIC1111/stable-diffusion-webui: Stable Diffusion web UI https://github.com/AUTOMATIC1111/stable-diffusion-webui ◆目次 1:AUTOMATIC1111版Stable Diffusion web UIでできること・対応していること 2:Google Co

                                        画像生成AI「Stable Diffusion」を4GBのGPUでも動作OK&自分の絵柄を学習させるなどいろいろな機能を簡単にGoogle ColaboやWindowsで動かせる決定版「Stable Diffusion web UI(AUTOMATIC1111版)」インストール方法まとめ
                                      • GPUなサービスをそこそこな費用で運営する | Kai INUI

                                        A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team

                                          GPUなサービスをそこそこな費用で運営する | Kai INUI
                                        • AMD、次期CPU「Zen 3」を10月8日、GPU「RDNA 2」を10月28日に発表

                                            AMD、次期CPU「Zen 3」を10月8日、GPU「RDNA 2」を10月28日に発表
                                          • ふっさふさの髪の毛が簡単に描ける「Blender 3.3」がリリース ~2年サポートのLTS/Intel Arc/AMD Vega GPUをフル活用したレンダリングにも対応

                                              ふっさふさの髪の毛が簡単に描ける「Blender 3.3」がリリース ~2年サポートのLTS/Intel Arc/AMD Vega GPUをフル活用したレンダリングにも対応
                                            • ビデオ会議のノイズをAIがカット! GPUによる配信支援アプリ「NVIDIA Broadcast 1.2」が公開/部屋の反響音やペット・虫の鳴き声、ビデオノイズも除去。ビデオ会議の品質もアップ

                                                ビデオ会議のノイズをAIがカット! GPUによる配信支援アプリ「NVIDIA Broadcast 1.2」が公開/部屋の反響音やペット・虫の鳴き声、ビデオノイズも除去。ビデオ会議の品質もアップ
                                              • なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由”

                                                米OpenAIの大規模言語モデル(LLM)・GPT-4は今、世界を大きく塗り替え続けている技術の一つだ。世界各国の企業がこぞってLLMの開発を進めている。特にGAFAなどの巨大企業は、その膨大な資源を使ってすでにいくつものLLMを世に放っている。 そんな中、日本では理化学研究所と富士通、東京工業大学、東北大学が、スーパーコンピュータ「富岳」を使ったLLMの研究を今まさに進めている。学習手法の研究からデータの法的な扱いまで幅広く検討し、日本のLLM開発の基盤を作るのが目的だ。 深層学習といえば、今ではGPUを使うのが一般的になっている。しかし富岳はそのGPUを搭載していない。日本にはGPU搭載スパコンも存在するのに、なぜ富岳を使ってLLMを研究するのか。 今回は富士通研究所・コンピューティング研究所の中島耕太所長と白幡晃一さんに、富岳を使ったLLM研究について、その意義を聞いた。富岳は確かに

                                                  なぜ日本はGPUのない「富岳」でLLMを研究するのか 外国に後れを取らないための“現実的な理由”
                                                • 初めてでもできる! 自宅PCのGPUを「Google Colab」から使い、生成AIをカンタンに動かす方法【イニシャルB】

                                                    初めてでもできる! 自宅PCのGPUを「Google Colab」から使い、生成AIをカンタンに動かす方法【イニシャルB】
                                                  • Apple M1環境でLinuxを動かす「Asahi Linux」のGPUドライバーがついに99%以上という成績でテストをパスしたという報告

                                                    Appleが独自開発するSoC「M1」搭載Macでの動作を目指すLinuxディストリビューション「Asahi Linux」で、Linux開発系VTuberの朝日リナ氏が「GPUのカーネルドライバーがテストを99%以上パスした」と報告しました。 ???????????? My Linux M1 GPU driver passes >99% of the dEQP-GLES2 compliance tests!!!!! ???????????? Most of this is thanks to @alyssarzg's prior work on macOS, but now I can replicate it on Linux! ^^ pic.twitter.com/BTI4AIUTkC— Asahi Lina / 朝日リナ //nullptr::live (@LinaAsahi) Oc

                                                      Apple M1環境でLinuxを動かす「Asahi Linux」のGPUドライバーがついに99%以上という成績でテストをパスしたという報告
                                                    • ゼロからはじめるPython(76) ColabのGPU高性能マシンが月1072円で使い放題になっていた件

                                                      Googleアカウントさえあれば無料でPythonの機械学習プラットフォームが使えるColaboratory(通称Colab)というサービスがある。既に本連載でも何度か紹介したことがあるが、3月末に待望の有料プランが日本でも始まった。有料プランでも制限はあるもののGPUを備えた超高性能マシンが月1072円で使い放題になったのは大きい。実際に有料版を試してみたので使い勝手を紹介しよう。 1072円で高性能マシンが使い放題に Colabについて復習してみよう まずは、改めてPythonのColabについて紹介しよう。一言で言うならGoogle Colabはブラウザ上で使えるPythonの実行環境だ。Googleが無料で提供しており、教育用途や研究用に使えるものだ。 そもそもPythonで人工知能(AI)を、特に機械学習を試してみたいという人は多いことだろう。ところが、Pythonや機械学習の実

                                                        ゼロからはじめるPython(76) ColabのGPU高性能マシンが月1072円で使い放題になっていた件
                                                      • “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」

                                                          “ペタ”FLOPSの性能を実現したモンスターGPU「NVIDIA H100」
                                                        • いま、生成AIでNVIDIA GPUが引っ張りだこなワケ

                                                            いま、生成AIでNVIDIA GPUが引っ張りだこなワケ
                                                          • 「ChatGPT」のような生成系AIを高速化するサーバー向けGPUをNVIDIAが発表

                                                            「ChatGPT」のような生成系AIを高速化するサーバー向けGPUをNVIDIAが発表 ライター:米田 聡 GTC 2023の基調講演に登場したJensen Huang氏 2023年3月21日,NVIDIAが主催する恒例のGPU技術関連イベント「GTC 2023」がスタートした。3月22日に行われた同社CEOであるJensen Huang(ジェンスン・フアン)氏の基調講演では,さまざまな新しいAI関連製品やサービスが発表となった。 本稿では,基調講演の一部から,ゲーマーでも知っておく価値がありそうなものにしぼって概要を紹介したい。 計算機リソグラフィ分野に大躍進をもたらす「cuLitho」 NVIDIAは自社で工場を持たない,いわゆるファブレスの半導体メーカーである。ただ,ファブレスといっても半導体の製造技術と無関係でいられるわけではない。とくにGPUは,最先端の製造技術を用いる複雑で大規

                                                              「ChatGPT」のような生成系AIを高速化するサーバー向けGPUをNVIDIAが発表
                                                            • GPU不要・メモリ16GBの本当の一般家庭PCでチャットAIを動作させるライブラリ「GGML」が鋭意開発中、すでにRaspberry Piで音声認識AIを動作させるデモも登場済み

                                                              ChatGPTやBardなどで利用されているチャットAIは、トレーニングだけでなく動作させるのにも数十~数百GBのVRAMなど非常に高いマシンスペックを要求するのが一般的です。そうした状況を変えるべく、GPU不要でチャットAIを動作させるライブラリ「GGML」の開発が進められています。 ggml.ai http://ggml.ai/ ggerganov/ggml: Tensor library for machine learning https://github.com/ggerganov/ggml GGMLの特徴は下記の通り。 ・Cで記述 ・16bit floatをサポート ・4bit、5bit、8bitの整数での量子化をサポート ・自動微分 ・「ADAM」「L-BFGS」という最適化アルゴリズムを搭載 ・Appleシリコンへの対応&最適化 ・x86アーキテクチャではAVXおよびAVX

                                                                GPU不要・メモリ16GBの本当の一般家庭PCでチャットAIを動作させるライブラリ「GGML」が鋭意開発中、すでにRaspberry Piで音声認識AIを動作させるデモも登場済み
                                                              • 書籍「ディープラーニングの数学」10章のDLモデルをGPUで動かす - Qiita

                                                                Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 書籍「ディープラーニングの数学」の著者です。 Amazonリンク この書籍は、ディープラーニングを含めた機械学習のアルゴリズムを数学的に定式化し、Pythonのプログラムをスクラッチで組み立てて(使っているライブラリはほぼNumPyとMayplotlibだけです)、実習コードで動作を確認する立て付けの本です。 10章の実習プログラムはディープラーニングのプログラムになっているのですが、他の章の実習コードと比べて恐ろしく処理に時間がかかります(1つの繰り返し処理で30分から1時間)。ここをなんとかできないかと前から思っていて、先

                                                                  書籍「ディープラーニングの数学」10章のDLモデルをGPUで動かす - Qiita
                                                                • まさかのXeon搭載NUC「Intel NUC 9 Pro」はGPUを選べる頼れるヤツだった

                                                                  まさかのXeon搭載NUC「Intel NUC 9 Pro」はGPUを選べる頼れるヤツだった:新たなNUCの道(1/4 ページ) 2020年1月の「CES 2020」に合わせて、Intelが新型のNUC(Next Unit of Computing)を披露したことを覚えている人も多いだろう。 従来製品に比べボディーが若干大型化した反面、新たにPCI Expressスロットを備えることで性能と拡張性を高めた新型NUCは、第9世代Coreプロセッサを備えたゲーミング向けモデルが“Ghost Canyon”、Xeonプロセッサなどを搭載するワークステーション向けモデルが“Quartz Canyon”の開発コード名で呼び表される。どちらもベアボーンキットとして提供されるが、国外の一部地域では、既に市場投入が始まっているようだ。 今回取り上げる「Intel NUC 9 Pro Kit NUC9VXQ

                                                                    まさかのXeon搭載NUC「Intel NUC 9 Pro」はGPUを選べる頼れるヤツだった
                                                                  • Google ColabとVSCodeで作るデータ分析環境 クラウドのGPU環境でもローカルと遜色ない開発体験を

                                                                    「分析コンペLT会」は、KaggleやSIGNATEなど、データ分析のコンペに関連するLT(ライトニングトーク)を行う会です。野澤氏は、Google Colabとvscodeを用いて作るデータ分析環境とその運用について発表しました。 機械学習の勉強環境の1つ「Google Colaboratory」 野澤哲照氏(以下、野澤):「Google ColabとVSCodeを用いたデータ分析環境運用Tips」ということで、野澤が発表します。 最初から免責で申し訳ないのですが、今日紹介する方法はGoogle側が推奨している方法ではないので、急に使えなくなる可能性もあります。そこだけご了承ください。 今日話す内容ですが、ざっくりGoogle Colab(Google Colaboratory)とVSCodeを紹介して、最終的にどういう環境が作れるかというところと、環境構築手順・運用時のポイントなどを話

                                                                      Google ColabとVSCodeで作るデータ分析環境 クラウドのGPU環境でもローカルと遜色ない開発体験を
                                                                    • 【レビュー】 「Ryzen AI 300」は省電力でCPU/GPUはデスクトップ並みという優秀さ。NPU搭載のRyzen AI 9 HX 370を性能検証

                                                                        【レビュー】 「Ryzen AI 300」は省電力でCPU/GPUはデスクトップ並みという優秀さ。NPU搭載のRyzen AI 9 HX 370を性能検証
                                                                      • AppleのM1チップ対応「Docker Desktop」プレビュー版が登場、WSL2のGPU対応も

                                                                        Docker社は、WindowsやMac上に簡単にDockerコンテナ環境を導入できる「Docker Desktop」のAppleのM1チップ対応と、WindowsのWSL 2(Windows Subsystem for Linux 2)におけるGPU対応をそれぞれ実現したプレビュー版のリリースを明らかにしました。 プレビュー版は、今回発表された「Docker Developer Preview Program」に申し込むことで、誰でも入手可能です。 In addition, today we’re opening up our Docker Developer Preview Program more widely. Help shape & improve the experience for millions of #Docker users by becoming a member

                                                                          AppleのM1チップ対応「Docker Desktop」プレビュー版が登場、WSL2のGPU対応も
                                                                        • 【西川和久の不定期コラム】 VRAMが少ないGPUで画像生成AIを諦めていた人に。「Stable Diffusion WebUI Forge」登場!

                                                                            【西川和久の不定期コラム】 VRAMが少ないGPUで画像生成AIを諦めていた人に。「Stable Diffusion WebUI Forge」登場!
                                                                          • PPAPの意味はあるのか、AWSのGPUを使ってパスワードを解析してみた

                                                                            インターネットイニシアティブ(IIJ)は2021年11月12日、同社にパスワード付きZIPファイルが添付されたメールが届いても2022年1月26日以降はそのファイルを削除しメール本文だけを受信すると発表した。盗聴防止策として知られる「PPAP」にノーを突きつけた格好だ。 PPAPとは、ファイルをやりとりするときファイルをパスワード付きZIPファイルにしてメールで送信し、そのパスワードを別のメールで送る仕組みである。この仕組みをメールサーバーやメールソフトに実装するセキュリティー製品が販売されている。なお、PPAPは「パ(P)スワード付き暗号化ファイルを送った後にパ(P)スワードを送る暗(A)号化プ(P)ロトコル」の略語とされる。 このPPAPにはいくつかの問題点が指摘されている。その1つは、パスワード付きZIPファイルはデータを暗号化するため、セキュリティー製品がファイルの中身をチェックし

                                                                              PPAPの意味はあるのか、AWSのGPUを使ってパスワードを解析してみた
                                                                            • NVIDIA、新GPU「GeForce RTX 3060」発表!予価329ドルで2月下旬発売予定

                                                                                NVIDIA、新GPU「GeForce RTX 3060」発表!予価329ドルで2月下旬発売予定
                                                                              • AI処理にGPU以外の新たな選択肢 デスクトップサイズに収まるスパコン「ベクトルプロセッサ」とは

                                                                                AI関連の技術が近年著しい発展を見せているのは、コンピュータの計算能力が大幅に上がったからだといわれている。AIの基礎になっているのは機械学習であり、膨大な量の計算処理を通して分類や回帰、予測といったタスクをこなす。 汎用的な計算はCPU、負荷の高い計算処理にはGPU、と一般にはこの2つのプロセッサが知られるが、実は計算処理に関して言えば、大型のスーパーコンピュータに搭載される「ベクトルプロセッサ」が近年にわかに注目を集めている。なぜなら、一般的なデスクトップPCサイズのマシンでも扱えるようになったからだ。 ベクトルプロセッサはAIの処理など、負荷の高い計算処理で他のプロセッサより格段に高い性能を見せる。DX(デジタルトランスフォーメーション)が進み、「データは石油」と呼ばれるようにデータから新たなビジネスを生み出せるようになった昨今、マシンの計算能力はビジネスの展開速度に直結する。 ベク

                                                                                  AI処理にGPU以外の新たな選択肢 デスクトップサイズに収まるスパコン「ベクトルプロセッサ」とは
                                                                                • ショップに聞く「今、ゲーミングPCを組むならGPUの最低ラインはどれくらい?」

                                                                                  ショップに聞く「今、ゲーミングPCを組むならGPUの最低ラインはどれくらい?」:古田雄介のアキバPick UP!(1/4 ページ) 先週は、MSIからGeForce RTX 3050搭載グラフィックスカード「GeForce RTX 3050 VENTUS 2X 8G OCV1」が売り出された。デュアルファンを備えた2スロット占有モデルで、価格は4万1000円弱となる(税込み、以下同様)。 GeForce RTX 3060かRTX 3050か それともCPU内蔵GPUか? 入荷したTSUKUMO eX.は「デュアルファンのRTX 3050カードでかなり買いやすい価格帯ですね。エントリーなゲーミングマシンを組みたい人に、ちょうどいい選択肢だと思います」と評価していた。

                                                                                    ショップに聞く「今、ゲーミングPCを組むならGPUの最低ラインはどれくらい?」