並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 2880件

新着順 人気順

GPGPUの検索結果201 - 240 件 / 2880件

  • DirectX ❤ Linux - DirectX Developer Blog

    DirectX is coming to the Windows Subsystem for Linux At //build 2020 we announced that GPU hardware acceleration is coming to the Windows Subsystem for Linux 2 (WSL 2). What is WSL? WSL is an environment in which users can run their Linux applications from the comfort of their Windows PC. If you are a developer working on containerized workload that will be deployed in the cloud inside of Linux co

      DirectX ❤ Linux - DirectX Developer Blog
    • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(3)。テクスチャフィルタリング技術最適化の乱

        【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(3)。テクスチャフィルタリング技術最適化の乱
      • NVIDIAによる買収、失敗すればArmは業績低迷か

        NVIDIAによる買収、失敗すればArmは業績低迷か:両社が英国・競争市場庁に反論(1/2 ページ) 英国政府当局が現在進めている、NVIDIAのArm買収に関する調査の一環として発表した文書によると、もしNVIDIAによる買収提案が失敗に終わった場合、Armはスタンドアロン企業として成長していく上で、重大な障壁に直面することになるという。 英国政府当局が現在進めている、NVIDIAのArm買収に関する調査の一環として発表した文書によると、もしNVIDIAによる買収提案が失敗に終わった場合、Armはスタンドアロン企業として成長していく上で、重大な障壁に直面することになるという。 29ページに及ぶこの文書は、英国政府が2021年11月に英国の競争市場庁(CMA:Competition and Markets Authority)にさらなる調査の実施を指示したことに対し、Arm/NVIDIAが

          NVIDIAによる買収、失敗すればArmは業績低迷か
        • NVIDIA、Ampereアーキテクチャ採用で最大2倍高速になった「GeForce RTX 3080」 ~下位の3070でも2080 Tiより高速

            NVIDIA、Ampereアーキテクチャ採用で最大2倍高速になった「GeForce RTX 3080」 ~下位の3070でも2080 Tiより高速
          • CPUの珍命令 - Qiita

            EDIT: はてなブックマークのエントリ だと ABCD (BCD加算) や DJNZ (ループ命令) が人気なようだ(Wikipediaしばりなもんで...) 。6502によくある JSR / RET が対応しないコーディングや、Z80で PUSH を目的外利用するような例は入れても良かったのかも。 DOOMの例を追加。 Wikipediaに個別ページができちゃうくらい有名な命令のメモ。 きっかけ このソースコードは現在の倫理上一般的でない表現が使われている箇所については当時の内容を尊重して掲載しています — ほうめい マイコンで遊んでばっかりで (@houmei) July 14, 2020 を受けて、 6809の命令のことですね。わかります >RT — Miura Hideki (@miura1729) July 14, 2020 1つのCPU命令が独立したWikipediaのページ

              CPUの珍命令 - Qiita
            • Microsoft、AIの影響で年間水消費量がプール2,000個分に

              Microsoft、AIの影響で年間水消費量がプール2,000個分に2023.09.14 20:0040,681 Angely Mercado - Gizmodo US [原文] ( そうこ ) AI台頭によって、AIがとんでもないエネルギー喰いだということが明らかになりました。電力はもちろん、炭素排出量も多く、環境への不可は仮想通貨を超えるとも言われており、AI活用とともにエネルギー効率化も求められています。 その中でも、消費量が特にに大きいのが水。 Microsoftの環境に関する報告書が公開Microsoft(マイクロソフト)が毎年公開している環境に関する報告書、2022年版がアップされました。 2021年の水使用料は477万2890トン。これが2022年には639万9415トンにまでアップ。実にたった1年で約30%も使用量が増加。オリンピックのプールでいうと、この増加量は2,000

                Microsoft、AIの影響で年間水消費量がプール2,000個分に
              • ベタ塗りすら不要、NVIDIAのお絵かきAIが進化 文字からリアルな画像生成

                米NVIDIAは11月22日(米国時間)、風景画像を自動生成する同社のAI技術「GauGAN」(ゴーギャン)の新モデルである「GauGAN 2」を発表した。従来はベタ塗りからリアルな画像を生成できていたが、GauGAN 2では文字情報を与えるだけで画像を生成できるようになった。 同社が公開している動画では「ocean waves hitting rocks on the beach」(ビーチの岩に当たる波)と入力する過程が収められており、「ocean」の段階では湾を俯瞰した画像が作られ、「waves」まで入れると波が現れ、「hitting rocks」まで入れた段階では波打ち際の画像が生成されている。

                  ベタ塗りすら不要、NVIDIAのお絵かきAIが進化 文字からリアルな画像生成
                • Apple、初の3nmプロセス採用プロセッサ「M3」

                    Apple、初の3nmプロセス採用プロセッサ「M3」
                  • Ryzen 7 3700XでオールM.2 SSDの質実剛健系PCを組んだ | なうびるどいんぐ

                    Ryzen 7 3700Xを使用してオールM.2 SSDの質実剛健系PCを組みました。 パーツ構成やそのパーツを選んだ動機などの話をします。 パソコンの買い替え 個人的な動機とか読者の方は興味ないでしょうから手短に。 パソコンを買い替えたいと思いました。 CPUなんてSandyおじさんですらないAMD FXシリーズだし、M.2とか使えないし、グラボもそろそろ力不足……CPU的なパワー不足は感じていなかったけど、足回りの方が気になり始めてきた。 それに今Zen2 Ryzenめっちゃ流行ってるし良さそうだし欲しくない?欲しい!よし、買い替えだ!!という具合。 というわけでPCを新たに組み立てることに。 シンプルに行こう 今回のPCで重視した方針は「シンプル」です。 前に使っていたPCではグラボ2枚刺し、SSD+HDD、回転数なんて一度も調整しなかったファンコン、DL販売化の流れで使われなくなっ

                      Ryzen 7 3700XでオールM.2 SSDの質実剛健系PCを組んだ | なうびるどいんぐ
                    • 世界最大規模のディープラーニングを「富岳」で実施して世界一になりました - fltech - 富士通研究所の技術ブログ

                      はじめに こんにちは。富士通株式会社ICTシステム研究所のMLPerf HPC五人衆です。先週、国際学会SC’21 において、理化学研究所/富士通が共同で開発した新しいスーパーコンピュータ(スパコン)「富岳」がスパコンランキングで4期連続の4冠(TOP500, HPCG, HPL-AI, Graph500)を獲得しましたが、同会議で発表された、実際のディープラーニング(DL)学習処理に特化したMLPerfTM HPC ベンチマークにおいても世界一を獲得しました。 本ブログでは、このMLPerf HPCの一つのアプリケーションであるCosmoFlowの学習を「富岳」で大規模に行い世界一となった、その挑戦についてお話させてもらいます。 はじめに 背景 MLPerf HPCって何?(白幡) CosmoFlowって何?(田渕) 「富岳」って何?(田渕) プロセッサ 通信ネットワーク ストレージ 準

                        世界最大規模のディープラーニングを「富岳」で実施して世界一になりました - fltech - 富士通研究所の技術ブログ
                      • ふつうのLinuxプログラミング-プロセスとハードウェア

                        研究会の輪講でやったやつ.多少がんばった&評価も高めだったし使いまわせそうなので上げておく.

                          ふつうのLinuxプログラミング-プロセスとハードウェア
                        • Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載

                          Nintendo Switch 2の詳細スペックが判明。GPU内蔵のCUDAコアは1280基、CPUはArm A78を8コア搭載 Nintendo Switch 2についてはGamescom2023にて関係者内でデモ機が披露され、そこでUnreal Engine 5などが動作しているデモが行われたという噂が出るなど、発売に向けて着々と開発が進められているためかここ最近はリーク情報が多く出始めています。 今回はこの中でも今まで明らかにされていたAmpereアーキテクチャーのGPUを搭載すると言う情報に加えて、このGPUに内蔵されるCUDAコア数やCPUのアーキテクチャーとコア数、そして製造プロセスに関する情報が登場しました。 Samsung Foundry 7LPH(8-nanometer improved version) — Revegnus (@Tech_Reve) September

                            Nintendo Switch 2の詳細スペック判明。CUDAコアは1280基、CPUはArm A78を8コア搭載
                          • NTT版大規模言語モデル「tsuzumi」 | NTT R&D Website

                            近年、ChatGPTを始めとする大規模言語モデル*1に大きな注目が集まっておりますが、これらは膨大な知識をモデル内に有することで高い言語処理性能を示す一方、学習に要するエネルギーは、原発1基1時間分の電力量が必要*2とも言われており、また、運用には大規模なGPUクラスタを必要とし様々な業界に特化するためのチューニングや推論にかかるコストが膨大であることから、サステナビリティおよび企業が学習環境を準備するための経済的負担面で課題があります。 NTTでは、これらの課題を解決する研究開発を進め、今回、軽量でありながら世界トップレベルの日本語処理性能を持つ大規模言語モデル「tsuzumi*2」を開発しました。「tsuzumi」のパラメタサイズは6~70億と軽量であるため、市中のクラウド提供型LLMの課題である学習やチューニングに必要となるコストを低減します。「tsuzumi」は英語と日本語に対応し

                              NTT版大規模言語モデル「tsuzumi」 | NTT R&D Website
                            • AMD、ザイリンクスを3兆6000億円で買収 株式交換で - 日本経済新聞

                              【シリコンバレー=佐藤浩実】米半導体大手のアドバンスト・マイクロ・デバイス(AMD)は27日、同業の米ザイリンクスを買収すると発表した。株式交換による買収額は350億ドル(約3兆6000億円)。中長期で成長が見込めるデータセンターや通信分野の事業基盤を強化し、米インテルや米エヌビディアに対抗する。規制当局の承認取得を進め、2021年末までの統合をめざす。買収はすべて株式交換で実施し、ザイリンク

                                AMD、ザイリンクスを3兆6000億円で買収 株式交換で - 日本経済新聞
                              • 新生活、ノートパソコン選びの「コツ」と「思考法」を伝授します! - すまほん!!

                                3月といえば新生活。これから始まる大学生活や一人暮らしなどで、初めてノートパソコンが必要になったり新調したりする方も少なくないでしょう。 一筋縄ではいかないノートパソコン選び。その選び方を解説していきます。 自分の用途を考えよう! 筆者が強い信条として持っているのが、「ノートパソコンはどこに金をかけたいかで選べ!」というものです。 デスクトップPCであれば、ミニPCやトレーディング用PCなどわずかな例外もありますが、おおむね価格と処理性能の相関が成り立ちます。スマートフォンもブランドや愛国心を売りにする製品など例外はありますが、だいたい同じですよね。 一方、ノートパソコンで考慮すべきはメモリ・CPUなどの単純な処理性能だけではありません。例えばゲームや動画編集をするならGPU性能が、外出先での使用がメインなら可搬性や耐久性、そして駆動時間の長さなどが必要となります。限られたポイント(=資金

                                  新生活、ノートパソコン選びの「コツ」と「思考法」を伝授します! - すまほん!!
                                • Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理

                                  Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理 GoogleのChrome開発チームは、WebブラウザでGPUプログラミングを可能にするWeb標準「WebGPU」が、4月26日にリリース予定のChrome 113で正式な機能として提供されることを明らかにしました。 WebGPU, one of the biggest additions to the Web platform is finally shipping in Chrome! Many thanks to all Chromium contributors in making this possible.https://t.co/26vmxtQWi1 https://t.co/FKGC3M3FVD — Chrome Developers

                                    Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理
                                  • 【西川善司が語る”ゲームの仕組み” Vol.2】いつもの日常とゲームの世界では時間の流れ方が違う?ゲームは”離散時間”で出来ている

                                    我々が住んでいる現実世界には時間が流れていますよね。もし、この時間が止まったらどうなるでしょうか。 そう、みんなピタっと止まって動かなくなるでしょう。そういう「時間が止まる」系の物語は漫画やアニメの世界では良く用いられるモチーフですが、実際、時間が止まった世界を見たことがある人はいません。 なぜなら現実世界では常に時間が流れていますし、仮に止まった瞬間があったとしても、我々にその事象を知覚することはできません。知覚にも時間が必要だからです。 それはそれとして、我々の現実世界の時間についてもう少し深く考えてみます。 時間は1分が60秒、1時間は60分…みたいな感じで捉えられていますよね。実生活で、よく用いられる時間の最小単位は1秒でしょうか。「そんな簡単なこと、”秒”で終わらせられるぜ」と強がったことのある人、いっぱいいると思います。 ただ、ストップウォッチを手に取って、徒競走のタイムを計測

                                      【西川善司が語る”ゲームの仕組み” Vol.2】いつもの日常とゲームの世界では時間の流れ方が違う?ゲームは”離散時間”で出来ている
                                    • Intel・NVIDIA・TSMCは半導体業界でどんな役割を果たしているのか?

                                      世界的な半導体不足が続く中、毎日のように半導体関連のニュースが話題となっていますが、半導体関連企業は「ファウンドリ」や「ファブレス」といった分かりづらいジャンル名で呼ばれることが多く、どの企業がどんな役割を果たしているのかは分かりづらいものです。それらの企業の役割について、半導体関連情報をまとめているウェブサイト・SemiWikiが解説しています。 The Semiconductor Ecosystem Explained - SemiWiki https://semiwiki.com/semiconductor-manufacturers/307494-the-semiconductor-ecosystem-explained/ 半導体はスマートフォンやPCの計算処理チップやエアコンの温度センサーなど、電化製品の部品として広く使われています。そんな半導体の生産には設計・生産・材料となる物

                                        Intel・NVIDIA・TSMCは半導体業界でどんな役割を果たしているのか?
                                      • GPUの性能比較がひと目で行えるヒエラルキー図公開―Nvidia「RTX 4090」全条件でTOPという結果に | Game*Spark - 国内・海外ゲーム情報サイト

                                          GPUの性能比較がひと目で行えるヒエラルキー図公開―Nvidia「RTX 4090」全条件でTOPという結果に | Game*Spark - 国内・海外ゲーム情報サイト
                                        • 【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?

                                            【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?
                                          • 大規模言語モデル(LLM)の作り方 Megatron-DeepSpeed編 Part1

                                            はじめに Turing 株式会社のリサーチチームでインターンをしている東京工業大学 B4 横田研究室の藤井(@okoge_kaz)です。 大規模言語モデル(Large Language Model: LLM)への注目がGPT-4のリリース以降高まっていますが、LLMを作るための知見は十分に共有されているとは言い難いと個人的に感じています。 Turingでは、Vision and Language, Video and Languageなどのマルチモーダルなモデルの研究開発を行っている一環として、Megatron-DeepSpeed, GPT-NeoXなどを用いて数十Bのモデルの学習を行う知見を蓄積しています。今回はLLMの事前学習を行う際に候補となるMegatron-DeepSpeedを用いてGPT-2-7B(6.6B)の学習をどのように行うのかについて解説します。 分散並列学習がどのよう

                                              大規模言語モデル(LLM)の作り方 Megatron-DeepSpeed編 Part1
                                            • データサイエンティスト向け性能問題対応の基礎

                                              データサイエンティストの皆さん、次のような性能問題にであったことないでしょうか。「データの加工処理が遅いからインスタンスタイプを上げたが速くならなかった」「機械学習の学習が遅いから、GPUを増やしたが、速くならなかった」こういったときにどうすればよいか説明します。

                                                データサイエンティスト向け性能問題対応の基礎
                                              • オープンソースの3DCG制作ツール「Blender」が20年以上ぶりのメジャーアップデート/アーキテクチャーを一新した「Cycles X」エンジンで生まれ変わった「Blender 3.0」

                                                  オープンソースの3DCG制作ツール「Blender」が20年以上ぶりのメジャーアップデート/アーキテクチャーを一新した「Cycles X」エンジンで生まれ変わった「Blender 3.0」
                                                • 【特集】 同じ「4060」と「4090」だけど……GeForceのデスクトップとノートはどのぐらい違う?

                                                    【特集】 同じ「4060」と「4090」だけど……GeForceのデスクトップとノートはどのぐらい違う?
                                                  • 学習が何で律速してるか、把握してますか? - arutema47's blog

                                                    (最新SSD IOはPCIe x4でした。ご指摘ありがとうございます。) はじめに どの処理で律速しているか調べる 各処理の速度改善方法 データ読み込み速度の改善 データ前処理速度の改善 GPU処理速度の改善 コンピューティングについての他記事 はじめに Kaggle Advent Calendar 2022 8日目です。 突然ですが、あなたはDNN学習時にどの処理で学習速度が律速しているか把握してますか? DNN学習には図に示すように大きく3つの要素があります: (SSDからの)データ読み込み (CPUによる)データ前処理 (GPUによる)DNN計算 学習時のデータの流れとしては SSDからデータが読み込まれ、CPUに送られる(SATA or PCIe) CPUにてaugmentationや正規化などの前処理が行われ、GPUにデータが送られる(PCIe x16) GPUにてDNNの計算・

                                                      学習が何で律速してるか、把握してますか? - arutema47's blog
                                                    • テキストから画像を生成できるオープンソースのStable Diffusionアプリ「Diffusers for Mac」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍に。

                                                      テキストから画像を生成できるオープンソースのMac用Stable Diffusionクライアント「Diffusers」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍になっています。詳細は以下から。 DiffusersはiPhone用カメラアプリ「Camera+」などを開発するPedro Cuencaさんがオープンソースで開発していたStable Diffusionアプリで、現在はCuencaさんが学習済みの機械学習モデルやデータセットなどを公開/共有するHugging Face HubのMLエンジニアになられたことで、Hugging Faceの公式Macクライアントとなっていますが、このDiffusersのバージョン1.1アップデートがリリースされています。 Generate images up to twice as fast!

                                                        テキストから画像を生成できるオープンソースのStable Diffusionアプリ「Diffusers for Mac」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍に。
                                                      • 次世代Nintendo Switch 「スイッチ2」(仮)のデモを見た証言続々。DLSSやレイトレ対応、UE5のMATRIXデモも | テクノエッジ TechnoEdge

                                                        著書に『宇宙世紀の政治経済学』(宝島社)、『ガンダムと日本人』(文春新書)、『教養としてのゲーム史』(ちくま新書)、『PS3はなぜ失敗したのか』(晋遊舎)、共著に『超クソゲー2』『超アーケード』『超ファミコン』『PCエンジン大全』(以上、太田出版)、『ゲーム制作 現場の新戦略 企画と運営のノウハウ』(MdN)など。 Nintendo Switchも発売から7年目を迎え、そろそろライフサイクルの終わりに差し掛かりつつあります。 そんななか、後継モデル(以下「スイッチ2」)の未確認情報も相次いでいましたが、今度は「任天堂が実際に開発者にスイッチ2の技術デモを見せた」と複数の人物が証言しています。 いずれも、先月下旬にドイツ・ケルンで開催された大型ゲームイベントgamescom 2023での証言です。 まずはイベント終了直後、マイクロソフト関連で信頼性の高いWindows Centralの編集者

                                                          次世代Nintendo Switch 「スイッチ2」(仮)のデモを見た証言続々。DLSSやレイトレ対応、UE5のMATRIXデモも | テクノエッジ TechnoEdge
                                                        • 実践!大規模言語モデル / 1000億パラメータ越えモデルを動かすには?

                                                          こんにちは。Turing株式会社の機械学習チームでインターンをしている九州大学修士1年の岩政(@colum2131)です。 Turingは完全自動運転EVの開発をするスタートアップです。 自動運転技術において、カメラやセンサ情報は正確な制御をする上で不可欠な要素である一方、自然言語やマルチモーダルな処理が必要となる状況もしばしば存在します。特に完全自動運転車においては、音声認識によってドライバーの音声命令を認識し、リアルタイムで適切な制御を行うことや、複雑な交通状況の背景にあるコンテクストを理解させるといった要求が出てきます。そのために、「基盤モデル」と呼ばれるような、自然言語処理を含む大規模モデルの学習が必要になってくると、私たちは考えています。 そこで本記事では、言語モデルの発展の流れとTuringが目指す基盤モデルの開発について紹介します! 1. 言語モデルとは? 近年の言語処理モデ

                                                            実践!大規模言語モデル / 1000億パラメータ越えモデルを動かすには?
                                                          • Asahi Linux開発者のVTuberが「AppleのM1 GPUをLinuxで動作させるためのドライバー開発」について語る

                                                            Apple独自開発のSoCであるM1チップを搭載したMacでの動作を目指すLinuxディストリビューション・Asahi Linuxの開発に携わる開発者兼VTuberの朝日リナ氏が、M1 GPUのドライバー開発についてAsahi Linux公式ブログで解説しています。 Tales of the M1 GPU - Asahi Linux https://asahilinux.org/2022/11/tales-of-the-m1-gpu/ リナ氏によれば、近年のGPUはほぼすべて、以下のようなメインコンポーネントで構成されているとのこと。 ・ユーザー定義のプログラムを実行して三角形(頂点データ)とピクセル(フラグメントデータ)を処理する「シェーダーコア」 ・三角形を画面上のピクセルに変換する「ラスタライズユニット」「テクスチャサンプラー」「レンダー出力ユニット」、およびシェーダーと一緒に動作す

                                                              Asahi Linux開発者のVTuberが「AppleのM1 GPUをLinuxで動作させるためのドライバー開発」について語る
                                                            • BIOS、更新してますか?

                                                              BIOS、更新してますか?2020.07.03 22:0070,742 David Nield - Gizmodo US [原文] ( 松浦悦子/Word Connection JAPAN ) えっ、「ばいおす」ってなんですか? そう思う人もいるかもしれませんが、ざっくり言うとPC(Windows機)の基本中の基本となるソフトウェアのことです。米GizmodoのDavid Nieldが基本的なところから解説してくれています。その性質上、実際に試される際は自己責任でお願いいたします。 BIOSとはBIOS(Basic Input/Output System)はコンピューターに搭載されている最も基本的なソフトウェア。コンピューターの電源を入れると最初に起動し、システムの構成要素(コンポーネント)がすべて動作しているか、正しい場所にあるかをチェックし、メインのOSをロードします。PCのスムーズな

                                                                BIOS、更新してますか?
                                                              • Unity、ゲームの最適化に関する電子書籍を無料公開。「モバイル」「コンソール/PC」向け2冊で、ボトルネックの特定方法やメモリ・GPU最適化などを解説

                                                                Unity Technologiesがゲームの最適化について解説する電子書籍を無料で公開 メモリやGPU管理、ボトルネック特定の方法などを解説したPDF資料 モバイル向けとコンソール/PC向けの2冊があり、各デバイス向け解説も Unity Technologiesは2023年12月6日、Unityにおけるゲームの最適化を解説する2冊の電子書籍を公開しました。 公開されたのは、モバイル向け開発ガイド『OPTIMIZE YOUR MOBILE GAME PERFORMANCE』と、コンソール/PC向け開発ガイド『OPTIMIZE YOUR GAME PERFORMANCE FOR CONSOLES AND PC』です。 各ガイドには、ボトルネックの特定方法やメモリ管理、プログラミングやアセット管理など、さまざまなカテゴリーにおける最適化が解説されています。また、各ガイドそれぞれに、対象デバイス

                                                                  Unity、ゲームの最適化に関する電子書籍を無料公開。「モバイル」「コンソール/PC」向け2冊で、ボトルネックの特定方法やメモリ・GPU最適化などを解説
                                                                • いまどきのVulkan

                                                                  3DグラフィクスAPI Vulkanの基本と最近のVulkanで使えるようになった機能について解説します これは2021年11月20日に行われた カーネル/VM探検隊 online part4での発表資料です 動画: https://youtu.be/CIfezfwbA3g ソースコード: https://github.com/Fadis/gct/tree/kernelvm-online-4

                                                                    いまどきのVulkan
                                                                  • 【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」

                                                                      【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」
                                                                    • LinuxのGUIアプリケーションに対応するWSL2 (1/2)

                                                                      開発者向けの主要プラットフォームであり続けるために LinuxのGUIアプリへの対応が必要? Microsoftは、WSL2(Windows Subsystem for Linux 2)でLinux GUIアプリケーションに対応することを計画している。以下の動画は昨年9月に開催されたXDC 2020のセッションのものだ。 上のWSLGのデモビデオより。GIMPや裏のウィンドウのタイトルバーはLinux GUIアプリケーションのもので、Windows 10とは明らかに違う。ただ、GIMPなどのアイコンがタスクバーに表示されていることから、Windowsのデスクトップのウィンドウになっていることがわかる この改良はかなり大きなものと言える。以前紹介したWSL2のGPUコンピューティングへの対応も(「Windows 10のWSL2からGPUが使えるようになった」)、WSL2内でGPUによる描画(

                                                                        LinuxのGUIアプリケーションに対応するWSL2 (1/2)
                                                                      • 物理Linuxサーバ構築用にThinkCentre M75q Tiny Gen2を購入 - Magnolia Tech

                                                                        普段、メインで使っているPCがMacBook Air 2018なので、さすがにDockerでコンテナをたくさん立ち上げたまま、ブラウザで調べ物する、みたいな使い方が辛くなってきた。夏場はファンも凄い回っちゃうし、レスポンスはすごく悪くなるし。 メインPCを買い替えようかとも思ったけど、ブラウザを使うくらいの作業なら特に不満は無い。それにそもそもメインPCでLinuxが動いている必然性も無いし、画面も要らないのでサブPCとしてデスクトップPCを用意して、Linuxをインストールする方に方向に転換。 部屋に大きなデスクトップが有るとサイズ的に圧迫感が有るし、複数のマシンのファンの音が同時に鳴るのは苦手なので(データセンタではないので...)、作業している場所から離れた所の隙間に設置できるような、1リットルサイズの小型PCを探すことにした。 Amazonとかで探すと色々と出てくるけど、それなりの

                                                                          物理Linuxサーバ構築用にThinkCentre M75q Tiny Gen2を購入 - Magnolia Tech
                                                                        • CyberAgentの日本語言語モデルを試してみる - きしだのHatena

                                                                          CyberAgentが日本語LLMを公開していたので、とりあえず動かしてみました。 サイバーエージェント、最大68億パラメータの日本語LLM(大規模言語モデル)を一般公開 ―オープンなデータで学習した商用利用可能なモデルを提供― | 株式会社サイバーエージェント モデルは次のように6サイズ提供されています。 ※ Rinna社も同時に新しいモデルを出したので試しています。 Rinnaの新しい3Bモデルを試してみる - きしだのHatena open-calm-small(160M) まずはopen-calm-small。160Mパラメータです。 このあたりは動作確認用なので、内容は気にしない。 GPUメモリは1.3GBくらいの消費です。 open-calm-medium(400M) 次にopen-calm-medium。400Mパラメータです。 このへんも細かいことは気にしないけど、なんかま

                                                                            CyberAgentの日本語言語モデルを試してみる - きしだのHatena
                                                                          • 【特集】 なぜGeForce RTX 4060は微妙と言われるのか?いまだに人気の3060と性能やコスパを比べて本当の所を見極める

                                                                              【特集】 なぜGeForce RTX 4060は微妙と言われるのか?いまだに人気の3060と性能やコスパを比べて本当の所を見極める
                                                                            • PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021

                                                                              Preferred Networks(PFN)は深層学習などの最先端の技術を最短路で実用化することで、これまで解決が困難であった現実世界の課題解決を目指しています。コンピュータビジョン、自然言語処理、音声認識、ロボティクス、コンパイラ、分散処理、専用ハードウェア、バイオインフォマティクス、ケモインフォマティクスといった幅広い分野で研究開発を行っており、それを支えているのが Kubernetes を用いて構築しているオンプレミス/ベアメタルの GPU クラスタです。 本セッションでは、PFN が Kubernetes を用いてクラスタを運用するなかでどのような障害が起きるのかを紹介し、また障害対応をどのように自動化しているのかを具体的に使用/開発したソフトウェアを含めてご紹介します。また Kubernetes クラスタの管理、アップグレードの自動化にも取り組んでおり、それを実現する Clus

                                                                                PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
                                                                              • Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ

                                                                                この記事を書いたところ、たくさんの方から「リモートデスクトップを使えばいいしゃん」とツッコミを受けたので、比較してみました katsumakazuyo.hatenablog.com 結論から言いますと私の14インチのノートパソコンだと画面が、NMKDのGUIの画面が小さすぎてちょっといろいろ工夫が必要でした。デフォルトだと、こんな感じ。 リモートデスクトップの画面が当たり前ですが、通常のノートより一回り小さくて、さらにその内周にNMKDがはいるので、フォントの文字が極小サイズになってしまいます。 デスクトップ側の画面を175%とかにしたら、ギリいける感じでしたので、たぶん、そういった工夫が必要みたいです。 あと、Promptに文字を入れるのも、日本語モードになっていると、キーボード入力受け付けないみたいです。これ、気をつけないと。 あと、超当たり前ですが、できあがったファイルもリモート側に

                                                                                  Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ
                                                                                • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

                                                                                  GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

                                                                                    GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

                                                                                  新着記事