
みぃの @rpOxxcdJ4J50668 息子が自作PCを作りたいと必要な物をパソコンで書き出してくれたんだけど、合計10万円以上する…😱 お小遣いは小4だから月400円。 お風呂掃除は毎日やってくれているし、洗面台洗ってくれたら20円として、毎日してくれれば、月600円で、合わせて月1000円かぁ…。 イイネの数だけ家計から出すか🤣 pic.x.com/LtvMkHhnB7 2025-02-10 20:07:33 ƺㄋƺㄋねʓ®(;👁🐽👁〆;)🐇🐹🐕 @tfTXqXcZPlBHLlT @rpOxxcdJ4J50668 CPU intel core i7-12700 26500円 CPU Arctic Silver 5/JP-DX1 1182円 asus prime b760m-a wifi d4 12980 M.2 内臓SSD 500GB 5980 DDR4-3200 8
市販のノートPC需要が高まり自作PCに挑戦するユーザーが減少傾向にある中で、デスクトップではなくノートPCをほぼ丸ごと自作した高校生が話題だ。ヒンジ部分も自作というこだわりだが、どうやってノートCPをほぼ丸ごと自作したのか。 自分でパーツを選び、それらを組み立てて作る自作PC。目的や用途に合わせて、CPUやGPU、メモリやストレージ、ケースなどのパーツを選択でき、自由度が高い。だが、昨今のノートPC需要の高まりによって、自作PCに挑戦するユーザーは減少傾向にあるようだ。 ある意味で究極とも言えるノートPCを“ガチ自作”したとして話題になっている高校生がいる。しかも、設計図などをオープンソースとして公開しているという。それを基にマネすることもできるだろう。その高校生はノートPCをどうやって“ほぼ丸ごと”自作したのか? 究極の自作ノートPCを作り上げたのは、ブライアン・ファン氏だ。日本でいうと
ある日漫然と半導体アナリストの市場分析記事を眺めていたら、AMDとNVIDIAが躍進しているという趣旨の記事が出てきて興味を持って読んでみたら、かなり衝撃的な事実が浮かび上がってきて思わず詳細を調べてしまった。 記事の内容は、データセンター市場でのCPU/GPUの売り上げの推移に関するもので、Intel、AMD、NVIDIAの3社がデータセンター市場向けに供給するCPU/GPUの売り上げを四半期ごとに追いかけた形で構成されていた。GPUで強みを発揮するAMDとNVIDIAという構図は以前から感じていたが、各社の四半期の決算の数字をずらりと並べると、この2年間でデータセンター市場では劇的な変化が起こっていることがはっきりと見て取れた。 GPUノードの急増で激変するデータセンター市場 Intel、AMD、NVIDIAの3社はオープン市場で汎用のCPU/GPU半導体製品を供給している。 この2年
はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール
広く使われているマシンエミュレーターであるQEMUには、3Dアクセラレーションに対応した仮想GPUを作る機能が存在します。そこで今回はこの機能を使って、ゲストマシン上でOpenGLベンチマークツールを動かしてみましょう。 QEMU/KVMと3D GPU QEMU/KVMはLinux用に広く使われているマシンエミュレーターです。たとえば仮想マシン管理ツールであるlibvirt/virt-managerや、libvirtのGNOME製フロントエンドであり第572回「GNOME Boxesを使用する」でも紹介されている「GNOME Boxes」は、QEMU/KVMをバックエンドとして利用しています。同様に第590回「Windows/macOS/Linuxで使える仮想マシン管理ツール『multipass』」で紹介したmultipassも、Linux版のバックエンドはQEMU/KVMです。 Vi
次々と発表されるオープンな日本語大規模モデル どうなっているの??という感じですよね。 我らがnpakaさんは、さっそくGoogle Colabで動かしていらっしゃいます。 ただ、Google Colabだと毎回モデルのダウンロードが大変なので、ローカルでDocker使って手軽に動かせるといいな、ということでやってみました。 以下GitHubのリポジトリにDockerfileとサンプルプログラムをおいています。チャットっぽいことをできるようにしています。 上記で、サイバーエージェントとリンナのLLMが両方動きます。 使用環境 前提となる環境です。使用しているPCのスペックは以下です。 項目 内容
3月といえば新生活。これから始まる大学生活や一人暮らしなどで、初めてノートパソコンが必要になったり新調したりする方も少なくないでしょう。 一筋縄ではいかないノートパソコン選び。その選び方を解説していきます。 自分の用途を考えよう! 筆者が強い信条として持っているのが、「ノートパソコンはどこに金をかけたいかで選べ!」というものです。 デスクトップPCであれば、ミニPCやトレーディング用PCなどわずかな例外もありますが、おおむね価格と処理性能の相関が成り立ちます。スマートフォンもブランドや愛国心を売りにする製品など例外はありますが、だいたい同じですよね。 一方、ノートパソコンで考慮すべきはメモリ・CPUなどの単純な処理性能だけではありません。例えばゲームや動画編集をするならGPU性能が、外出先での使用がメインなら可搬性や耐久性、そして駆動時間の長さなどが必要となります。限られたポイント(=資金
WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場 ONNX Runtime WebがWebGPUに対応。Webブラウザ上でさらに高速な推論処理が可能になった。Stable Diffusion Turbo全体をWebブラウザ上で高速に実行可能で、RTX4090を用いた場合1秒以内で結果が出力される。 ONNX Runtime Webの基になっている「ONNX Runtime」はクロスプラットフォーム対応の推論エンジンです。TensorFlow、PyTorch、SciKit Learnなどをはじめとするさまざまな機械学習のモデルに対応し、これらで生成されたモデルによる推論処理をプラットフォームに依存せず実行するランタイムの役割を果たします
~ このエントリは 【カヤック】面白法人グループ Advent Calendar 2023 の22日目の記事です。~ こんにちは!ハイパーカジュアルゲームチームの深澤です。 WebGL2において GPU Instancing でメッシュを大量に表示しつつ、Transform Feedback を使ってインスタンスごとの情報計算もGPUに任せてみたいと思います。 ↓ デモはこちらになります。画像かURLから飛ぶことができます デモ: https://takumifukasawa.github.io/webgl-transform-feedback-gpu-instancing/ ↓ リポジトリのURL github.com メッシュ1つあたりの頂点数は24です。描画色は、インスタンスごとの色をふまえて平行光源の拡散光だけ計算しています。 GPU Instancing を使っていて、ドローコー
セカンドライフでの私の製作物とアバターです まえおき セカンドライフは2003年に発表され、2006年ごろから話題になり、2010年にピークを迎えたLindenLab社が運営するSecondLife(セカンドライフ)ですが、2023年には20年目になりました。 メタバース関連の話題があがるとセカンドライフのつまらなさと過疎っぷりを伝える【メタバースの失敗】=【セカンドライフの失敗】というキーワードの記事も同時に現れるのですが、その多くはそれなりに調べてはいるけども、セカンドライフの事を何もしらない人が書いている事が問題として挙げられ、一部セカンドライフユーザー達から猛烈に反論されたりするなどプチ炎上が起こりがちです。 例えば、PSO2やDQX、FF14、フォートナイトなどの様々な長く続いている有名オンラインタイトルをエアプ*1野郎がつまらないと断言すれば、それらのプレイヤーから反感を買って
Unity Technologiesがゲームの最適化について解説する電子書籍を無料で公開 メモリやGPU管理、ボトルネック特定の方法などを解説したPDF資料 モバイル向けとコンソール/PC向けの2冊があり、各デバイス向け解説も Unity Technologiesは2023年12月6日、Unityにおけるゲームの最適化を解説する2冊の電子書籍を公開しました。 公開されたのは、モバイル向け開発ガイド『OPTIMIZE YOUR MOBILE GAME PERFORMANCE』と、コンソール/PC向け開発ガイド『OPTIMIZE YOUR GAME PERFORMANCE FOR CONSOLES AND PC』です。 各ガイドには、ボトルネックの特定方法やメモリ管理、プログラミングやアセット管理など、さまざまなカテゴリーにおける最適化が解説されています。また、各ガイドそれぞれに、対象デバイス
ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニュースになって来始めているのでここで本当の問題を明らかにしておきたい。 AI開発に必須なのは、計算資源である。そしてこれは現在のところ、事実上NVIDIAが一社独占している。 NVIDIA以外の半導体がいくら「AIに特化しています」と能書きを垂れていてもごくわずかな例外を除いてはほとんど全部が誇大広告である。 たとえばApple Silliconは、「ニューラルエンジン」と称するモジュールを内蔵しているが、これを使ってAIの学習をすると、なんとCPUよりも遅い。信じられないかもしれないが、これが残酷な事実なのである
AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-vs-tpu-vs-npu/ Cloud TPU の概要 | Google Cloud https://cloud.google.com/tpu/docs/intro-to-tpu?hl=ja ◆CPUとは? CPUは「Central Processing Unit」の略称で、PCでの文書作成やロケットの進路計算、銀行の取引処理など多様な用途に用いられています。CPUでも機械学習を行うこ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く