並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 38 件 / 38件

新着順 人気順

opencl githubの検索結果1 - 38 件 / 38件

  • Mac やめて Linux PC を自作した - IT戦記

    みなさまお元気ですか 暑さも少し落ち着いてきて、ようやく外に出てもいいかなという気になってきました。季節の変わり目体調には気をつけていきたいですね。 実は、一ヶ月くらい前に Linux PC を自作して Mac から移行しました。そのときの考え、その後の感想を残しておきます。 また、学んだことや作業のログを細かく残しておきたいと思います。(どこかの誰かが不安に思ったときに同じ失敗や疑問を経験した人がいて安心してもらえたら嬉しい) Ubuntu のインストール画面 (ベストオープンソースと開発しよう!) 目次 Mac をやめるきっかけ、経緯 Ubuntu に移行して一ヶ月の感想 おまけ1: どのような PC になったか おまけ2: 事前に学んだこと おまけ3: PC の組み立て おまけ4: Ubuntu のセットアップ 加筆/修正 指摘のあった誤字を修正 NVEnc について誤った内容があっ

      Mac やめて Linux PC を自作した - IT戦記
    • CPUが得意なことをCPUにまかせて少ないVRAMでも大きめのLLMを速く動かす - きしだのHatena

      Redditに「VRAM足りないとき一部のレイヤーをCPUに任せるんではなく、レイヤー全部をGPUに載せてレイヤー内部のFFNだけCPUに持っていったら速くなった、なんでこれが標準じゃないんだ」というのがあったので、おうちのRTX 4060 Ti 16GBで試してみたら微妙に速くなりました。 https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7/dont_offload_gguf_layers_offload_tensors_200_gen/ Qwen3 30B A3Bで試してみる こういった指定がOllamaやLM Studioではできないので、今回はKoboldCPPというので試してます。 https://github.com/LostRuins/koboldcpp KoboldCPPでは実用が厳しいので、llama.cppで試すほう

        CPUが得意なことをCPUにまかせて少ないVRAMでも大きめのLLMを速く動かす - きしだのHatena
      • OpenAIのSpeech-To-Text AI「Whisper」をM1 Macで試してみる

        OpenAIがSpeech-To-Text AIのWhisperを発表しました。Githubからpipでインストールすれば簡単に使えます。私のM1 Max MacBook Proでも動作しましたので、作業内容を書いておきます。 GitHub – openai/whisper: Robust Speech Recognition via Large-Scale Weak Supervision Python仮想環境を作る Python自体のインストールは既に終わっているところから書くことにします。私の環境は、ASDFを使ってPythonのバージョンを使い分けており、今回使用するのは、miniforge3-4.10.3-10です。Python 3.9.13が動作しています。 まず、仮想環境を作ります。miniforgeを使っていながらPython標準のvenvを使っていました。(あまり意識して

          OpenAIのSpeech-To-Text AI「Whisper」をM1 Macで試してみる
        • GPUの単精度 sin / cos 関数の誤差を引数 32bit 全探索で調べた

          GPUの単精度 sin / cos には「標準版」と「近似版」がある NVIDIA / AMD など多くの GPU には、sin や cos といった超越関数を高速(1サイクルあたり1命令のスループット[1])に 近似計算する 専用ハードウェアが搭載されています。NVIDIA ではこれを SFU (Special Function Unit) [2]と呼びます。本記事では便宜上、SFU で計算されるものを 近似版 と呼び、非SFUのほうを 標準版 と呼びます。 Unity をはじめとするゲームエンジンで何気なく sin / cos を Shader(HLSL/GLSL)から呼ぶと、HLSL → 中間表現 → GPU アセンブリ となってSFU 命令に置き換えられ ます[3] [4]。 このときの誤差特性を把握していないと、回転行列や FFT 系など三角関数を多用するアルゴリズムで想定外のブ

            GPUの単精度 sin / cos 関数の誤差を引数 32bit 全探索で調べた
          • 言語モデルを高位合成でFPGAに実装してみた

            言語モデルを高位合成でFPGAに実装してみた Turing株式会社のリサーチチームでインターンしているM1の内山です。 Turing株式会社では大規模基盤モデルによる完全自動運転を目指しており、その実現に欠かせない技術として大規模言語モデルの研究開発を行っています。 Generative AI LLMの広範な知識と思考能力に加え、視覚情報やセンサーデータなどの多様な入力を受け入れることで、車の周囲の状況を正確に認識します。さらに、世界モデルを適用することで、高度な空間認知と身体性を獲得し、実世界に対応した生成AIを実現します。 https://tur.ing/ より引用 しかしながら、従来の大規模モデルはデータセンターという大量のGPU・潤沢な電源・安定した地盤を備えた豊かな環境で処理されるものであり、対して自動車というものは余りにも狭く、電源が乏しく、振動が大きいという劣悪極まりない環境

              言語モデルを高位合成でFPGAに実装してみた
            • ローカルで各種AIモデルを実行できる無料ソフト「llama.cpp」がマルチモーダル入力をサポートし画像の説明などが可能に

              AIモデルをローカルで実行できるオープンソースソフトウェア「llama.cpp」が画像の入力に対応しました。画像とテキストを同時に入力して「この画像には何が写っている?」といった質問に回答させられます。 server : vision support via libmtmd by ngxson · Pull Request #12898 · ggml-org/llama.cpp · GitHub https://github.com/ggml-org/llama.cpp/pull/12898 llama.cpp/docs/multimodal.md at master · ggml-org/llama.cpp · GitHub https://github.com/ggml-org/llama.cpp/blob/master/docs/multimodal.md Trying out ll

                ローカルで各種AIモデルを実行できる無料ソフト「llama.cpp」がマルチモーダル入力をサポートし画像の説明などが可能に
              • Algorithms for Modern Hardware - Algorithmica

                This is an upcoming high performance computing book titled “Algorithms for Modern Hardware” by Sergey Slotin. Its intended audience is everyone from performance engineers and practical algorithm researchers to undergraduate computer science students who have just finished an advanced algorithms course and want to learn more practical ways to speed up a program than by going from $O(n \log n)$ to $

                • 実験用 GPU 環境をどう準備したらいい?(非情報系が機械学習を使う研究をしたいとき) - 木曜不足

                  深層学習が著しく発展し、今まで人間にしかできないと思われていたことができるようになってきました。そのおかげで、今まで機械学習と縁が薄かった分野でも、機械学習を使った研究がしたいという声が上がるようになっています。 前々回は、それを裏付けるように非情報系の学生さんが機械学習を使った研究をしたいという応募がサイボウズ・ラボユースに増えているという話、前回はいままで機械学習や深層学習に縁のなかった人が何から勉強したらいいかという話を書きました。 今回はその続き、研究に必要な実験用 PC 環境をどのように準備したらいいかというお話です。 深層学習の実験をするには、十分な性能の GPU を積んだ PC が必要です。 今どきの機械学習関連の研究室では、院生有志がメンテナンスしている GPU のクラスタがあって、それを使わせてもらえることが期待できます。自分用の PC を手配する場合も、研究テーマに適し

                    実験用 GPU 環境をどう準備したらいい?(非情報系が機械学習を使う研究をしたいとき) - 木曜不足
                  • I Made Zig Compute 33 Million Satellite Positions in 3 Seconds. No GPU Required.

                    Update: I've since added multithreading and pushed astroz to 326M propagations/sec. Read the follow-up → I've spent the past month optimizing SGP4 propagation and ended up with something interesting: astroz is now the fastest general purpose SGP4 implementation I'm aware of, hitting 11-13M propagations per second in native Zig and ~7M/s through Python with just pip install astroz. This post breaks

                      I Made Zig Compute 33 Million Satellite Positions in 3 Seconds. No GPU Required.
                    • 【C#】Silk.NET+WebGPUで三角形を描画する - octo127’s blog

                      はじめに WebGPUについて 余談:Vulkanについて WebGPUのネイティブ実装について Silk.NETについて 検証環境 導入するNuGetパッケージ 1. ウィンドウの作成 ※WindowOptionsの値一覧 2. WebGPUの初期化 2-1. unsafeの有効化、パッケージの導入 2-2. 作成するクラス・構造体の説明 2-3. 初期化用ユーティリティクラスの作成 Descriptor(記述子) Struct-Chaining PfnRequestOOOCallback 2-4. 初期化 3. 三角形を表示 3-1. RenderPipelineの作成 3-2. シェーダーの作成 3-3. 描画の実行 参考資料 以下の記事に基づいた内容のプロジェクトをGitHubにアップしました。 動作確認等にご利用ください。 github.com はじめに WebGPUについて W

                        【C#】Silk.NET+WebGPUで三角形を描画する - octo127’s blog
                      • Windows 10で始めるC言語開発(1) Windows 10でC言語開発をしよう!LLVM/Clangで行く

                        TIOBE Programming Community Index (2021年4月4日) 資料: TIOBE Software 増加傾向を続けているのはPythonだ。使われる分野も多岐にわたる。学習が比較的容易で必要とされる産業が多いということは、それだけ就職口があるということも意味している。この言語に人気が出るのは当然だ。 長期にわたって減少傾向にあるものの、Javaにも根強いシェアがある。Javaは既に企業システムの基幹部分で使われているなど、ビジネスにおいて欠かすことができない言語だ。新規開発に加えて、Javaで開発したシステムのメンテナンスや改修といったニーズもある。これも就職先が多いプログラミング言語だ。 そして現在、TIOBE Programming Community Indexの1位はC言語だ。もともとC言語は人気1位だったが、Javaの登場以降は2位に甘んじていた。し

                          Windows 10で始めるC言語開発(1) Windows 10でC言語開発をしよう!LLVM/Clangで行く
                        • ffmpeg で GPU エンコードできるようにする - Neo's World

                          ffmpeg で GPU エンコードできるようにする 以前 ffmpeg を使ってコマンドラインから動画をエンコードする方法をまとめた。その際、GPU エンコードが上手くいかなかったので放置していたのだが、再トライしてみた次第。 過去記事 : ffmpeg で mkv 形式の動画を H.264 mp4 に変換してみた h264_nvenc (や nvenc_h264) で GPU エンコードできるようだが、自分が試した ffmpeg では上手くいかなかった。何かビルドしたりしないといけないらしい。面倒なので放置 当時どう上手くいかなかったのかというと、以下のようなエラーメッセージが出て異常終了していた。 driver does not support the required nvenc api version. required 11.1 found 11.0 割と簡単に何とかなったので

                            ffmpeg で GPU エンコードできるようにする - Neo's World
                          • NVIDIA Transitioning To Official, Open-Source Linux GPU Kernel Driver - Phoronix

                            NVIDIA Transitioning To Official, Open-Source Linux GPU Kernel Driver Written by Michael Larabel in Display Drivers on 11 May 2022 at 04:05 PM EDT. Page 1 of 1. 239 Comments. The day has finally come: NVIDIA IS PUBLISHING THEIR LINUX GPU KERNEL MODULES AS OPEN-SOURCE! To much excitement and a sign of the times, the embargo has just expired on this super-exciting milestone that many of us have been

                              NVIDIA Transitioning To Official, Open-Source Linux GPU Kernel Driver - Phoronix
                            • FireAlpaca SE 3.0 リリース!

                              先ほど無事リリースされました。 ペイントツール FireAlpaca SE これに合わせて幾つかフィルタをMFGストアに追加する作業をしています。 この作業が終われば現時点では10個くらいのフィルタになります。 まだまだ増やしていきたい。 自分がここ数年開発していたものの集大成です。なかなか感慨深いですね。反響があるといいなぁ。 私と@nattou_orgで分担して作っていた感じですが、ここでは自分が担当した部分の話を幾つか。 でかいキャンバスと大量のレイヤーでも爆速で動いて、最強のブラシと最強のフィルタを備えるペイントソフト 作ろうとしたのは、だいたいこの三つを備えたペイントソフト、となります。 プロフェッショナルユースとして、本格的なPCで使えばその性能を遺憾無く発揮する、というのは強く意識したところです。 普通の使用ではお目にかかれないような大きなデータでも十分に使い物になるような、

                              • CUDAなんてない!Ryzen + RADEONのAMD環境でもStable

                                いま一部で話題のStable Diffusion。 ちょっと前から出ているMidjourneyと同じく、「画像生成AIが言葉から連想して絵を書いてくれる」というツール。 今はツールだけど、そのうち色々なアプリ、サービスのいち機能に自然な形で組み込まれると思います。 それが自分のPCでも動くらしい! それなら無駄にありあまるGPUパワー(というほどでもないけど)を使ってみたい!! と思い立ち触ってみたけれど、基本NVIDIA=CUDA推奨。 誰かRADEON=AMDでやってる奴いるでしょ! と思ったら意外と日本の記事が出てこなくて苦労しましたとさ。 バイブル基本この動画の通りにやっただけです。 が、これ系の知識が全く無かったので何回もやり直しました。 初めて動いた時は声がでたレベル。 当環境&必要なものCPU:AMD Ryzen 9 5900XGPU:AMD RADEON 6800XTMEM

                                  CUDAなんてない!Ryzen + RADEONのAMD環境でもStable
                                • NanoPi R6S に Debian 11 Bullseye (Core) をインストールして rkmppenc で HW エンコード

                                  この記事は最終更新日から1年以上が経過しています。情報が古くなっている可能性があります。 ラズパイ4よりスペック高い NanoPi R6S に Ubuntu 22.04 LTS (Desktop) をインストールする…おひさしぶりです。といってもこんなインターネットの場末にあるこのブログを定期購読みたいな形でチェックしている奇特な人間がいるとは思えませんが、記事を書くモチベーションがかなり低下してしまったこともあって、このブログも去年の4月以来まったく...blog.tsukumijima.net2023.02.17 以前の記事で紹介した NanoPi R6S ですが、何かやらかしたのか Ubuntu のデスクトップが起動しなくなってしまったこと、さらに色々いじっていたら環境が壊れたこともあり、OS を入れ直すことにしました。 NanoPi の製造元である FriendlyElec が提供

                                    NanoPi R6S に Debian 11 Bullseye (Core) をインストールして rkmppenc で HW エンコード
                                  • 1時間でAMD ROCm環境を構築してStableDiffusionを走らせてみた | DevelopersIO

                                    ここ12年ほど、グラフィックスボードはRadeonを使い続けている水島が大阪よりお届けします。 AMD Radeonをこれでもかと推す内容となっておりますが、単に個人的な好みですのでご承知いただければ幸いです。 昨今世間を賑わわせているいくつかの画像生成AIですが、中でもStable Diffusionはオープンソースソフトウェアとして公開され、自分のマシンで実行できることが話題となりました。ローカルで実行できれば順番待ちも利用費も気にせず、リソースの限り好きなだけ試行できます。必要なのは時間と電気代と、そう、グラフィックスボードです。 幸い、高騰していたグラフィックスボードの価格も落ち着いてきておりますので、価格を理由に購入を見合わせていた方もそろそろ動き出す頃合いではないでしょうか。 用意するもの AMD Radeon グラフィックスボード ではまず、最新のROCmが動作するグラフィク

                                      1時間でAMD ROCm環境を構築してStableDiffusionを走らせてみた | DevelopersIO
                                    • ローカルPCでLLMを動かす(llama-cpp-python) | InsurTech研究所

                                      プレスリリースで「LLMをオープンソースで公開します!」なんてものが流れてくると、自宅のPCで動かしたみたいと思ったりしませんか? 「Amazon SageMakerやGoogle Colabがあるから必要だと思わない」「どうせStable DuffusionのようにVRAM不足で落ちるんでしょ?」、ま、まあそういう面は確かにあるのですが、世の中にはCPUだけで動かしてしまう仕組みもあるのです。CPUだったら自宅PCにも必ず乗っている、つまり、ローカルで動くということです。 ここで紹介する「llama-cpp-python」はその一つです。もちろんCPUだけで動きますが、NVIDIA GeForceのカードが刺さったPC(きっとゲーミングPC)であればもっと快適に動かすオプションもあり、有償版のサービスに手を出す前に、LLMを使って遊びたい方には良いプロダクトだと思います。 llama-c

                                        ローカルPCでLLMを動かす(llama-cpp-python) | InsurTech研究所
                                      • Why We Use Julia, 10 Years Later

                                        Exactly ten years ago today, we published "Why We Created Julia", introducing the Julia project to the world. At this point, we have moved well past the ambitious goals set out in the original blog post. Julia is now used by hundreds of thousands of people. It is taught at hundreds of universities and entire companies are being formed that build their software stacks on Julia. From personalized me

                                          Why We Use Julia, 10 Years Later
                                        • 【タンパク質準備】OpenMMを使ったタンパク質のエネルギー最小化とPymolを使ったGrid boxの決定方法【In silico創薬】 - LabCode

                                          本記事はin silico screeningにおけるタンパク質準備について書かれた記事です。OpenMMを使って、タンパク質のエネルギー最小化とオープンソース版のPymolを使ったgrid boxの作成方法を記載しています。企業の方でも使える内容ですので、ぜひご覧ください! 動作検証済み環境 Mac M1, Sequoia 15.3 自宅でできるin silico創薬の技術書を販売中 新薬探索を試したい方必読! ITエンジニアである著者の視点から、wetな研究者からもdryの創薬研究をわかりやすく身近に感じられるように解説しています 技術書ページへ 自宅でできるin silico創薬の技術書を販売中 分子ドッキングやMDシミュレーションなど、 自宅でできるin silico創薬の解析方法を解説したものになります! 技術書ページへ 自宅でできるin silico創薬の技術書を販売中 in

                                          • 第904回 ミドルレンジのグラフィックボードで生成AI入門[Intel編] | gihyo.jp

                                            B760M Pro RS/D4 WiFiのPCIeは4.0対応ですが、H670M-ITX/axはPCIe 5.0対応ということで入れ替えてみたものの、PCIe 5.0でリンクしているようには見えませんでした。UEFI BIOSの設定をいじったりはしてみたのですが。 OSはもちろんUbuntu 24.04.4 LTSです。 ドライバーのインストール 24.04.4のカーネル6.17はB580に対応しているので、ドライバーのインストールは必須ではありませんが、ここではドキュメントの内容を少々アレンジしてインストールします。次のコマンドを実行してください。 $ sudo add-apt-repository -y ppa:kobuk-team/intel-graphics $ sudo apt-get install -y libze-intel-gpu1 libze1 intel-metric

                                              第904回 ミドルレンジのグラフィックボードで生成AI入門[Intel編] | gihyo.jp
                                            • WSL2でSelf Forcingを試してみる|noguchi-shoji

                                              「トレーニング中に推論プロセスをシミュレートし、KV キャッシュを使用して自己回帰ロールアウトを実行することで、自己回帰ビデオ拡散モデルをトレーニング」することにより、「トレーニングとテストの分布の不一致が解決され、最先端の拡散モデルの品質に匹敵する、単一の RTX 4090 でのリアルタイムのストリーミング ビデオ生成が可能」となったらしいSelf Forcingを試してみます。 使用するPCはドスパラさんの「GALLERIA UL9C-R49」。スペックは ・CPU: Intel® Core™ i9-13900HX Processor ・Mem: 64 GB ・GPU: NVIDIA® GeForce RTX™ 4090 Laptop GPU(16GB) ・GPU: NVIDIA® GeForce RTX™ 4090 (24GB) ※外付け ・OS: Ubuntu22.04 on WS

                                                WSL2でSelf Forcingを試してみる|noguchi-shoji
                                              • llama-cpp-pythonで、OpenAI API互換のサーバーを試す - CLOVER🍀

                                                これは、なにをしたくて書いたもの? llama-cpp-pythonを使うとOpenAI API互換のサーバーを立てられることを知ったので、ちょっと動かしてみました。 llama-cpp-python llama-cpp-pythonのGitHubリポジトリーはこちら。 GitHub - abetlen/llama-cpp-python: Python bindings for llama.cpp ドキュメントはこちらです。 llama-cpp-python llama-cpp-pythonは、llama.cppのPythonバインディングです。 GitHub - ggerganov/llama.cpp: Port of Facebook's LLaMA model in C/C++ Llamaを使ったアクセスもできるのですが、 High-level API Python Bindings

                                                  llama-cpp-pythonで、OpenAI API互換のサーバーを試す - CLOVER🍀
                                                • FFmpeg8.0でWhisperを使って字幕ファイルを書き出す

                                                  準備 検証環境について 前の記事でも軽く書きましたが、せっかくffmpegも8.0になったので、改めて構築方法を見直してみます。vagrantなのでroot前提でもお気楽で良いかなと思いましたが、さすがに乱暴かなと思い一般ユーザーでの作業に落とし込んでいます。 nasmはcrbからのインストールにしました。最新バージョンではないですがAVX-512サポートはできているバージョンなのでまあいいかなと。またこの後画質検証などもしたいと思い、追加でVMAFも組み込んであります。 またffmpeg 8.0からMacのSafariでも再生できるようにパッケージングしてくれるようになったので、AV1とVP9の組み合わせでのHLSも作っていけるようにVPXも組み込みました。 あとはWhisperで使用したい音声コーデックなどがあれば追加で組み込むぐらいですかね。まあ一旦は動作確認という事でこれくらいでや

                                                    FFmpeg8.0でWhisperを使って字幕ファイルを書き出す
                                                  • Llama.cpp + cuBLAS による Llama 2 の高速実行を試す|npaka

                                                    「Llama.cpp」+「cuBLAS」による「Llama 2」の高速実行を試したのでまとめました。 ・Windows 11 1. Llama.cpp のオプション前回、「Llama.cpp」で「Llama 2」をCPUのみで動作させましたが、今回はGPUで速化実行します。 「Llama.cpp」にはCPUのみ以外にも、GPUを使用した高速実行のオプションも存在します。 ・CPUのみ ・CPU + GPU (BLASバックエンドの1つを使用) ・Metal GPU (Apple Silicon搭載のMacOS) 「Llama.cpp」が対応している「BLASバックエンド」は次の3つです。 ・OpenBLAS : CPU上で高速な行列演算を実現するためのライブラリ ・cuBLAS : NVIDIAのGPU上で高速な行列演算を実現するためのライブラリ ・CLBlast : OpenCL上で高速

                                                      Llama.cpp + cuBLAS による Llama 2 の高速実行を試す|npaka
                                                    • VMware ESXi 7.0 での GPU パススルー設定手順 - setodaNote

                                                      2023-01-10 ESXi ホストに搭載されているグラフィックボードを仮想マシンで使えるようにするための手順についてまとめました。 環境 UEFI の設定(ASRock) ESXi の設定 グラフィックボードのパススルー設定 ESXi の再起動後にもパススルー設定を継続させる 仮想マシンの設定(Windows 10) CPU の設定 メモリの設定 PCI デバイスとしてグラフィックボードを追加 hypervisor.cpuid.v0 パラメータの追加 起動後の作業:最新のドライバーをインストール 起動後の作業:「エラーコード 43」対策( devcon.exe の自動実行設定) hashcat のインストール(オプション) CUDA SDK Toolkit のインストール Kernel exec timeout の無効化 仮想マシンの設定(Ubuntu 20.04) 起動後の作業:NV

                                                        VMware ESXi 7.0 での GPU パススルー設定手順 - setodaNote
                                                      • データベース検索秘匿化技術「Private Information Retrieval (PIR)」の最先端アルゴリズムの発明と特許・商標出願までの道のり - Qiita

                                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? ブロックチェーンエンジニアのびりあるです。 データベースの検索内容をサーバ側に知られることなく検索ができる「Private Information Retrieval (以下PIR)」という暗号技術があるのですが、既存の実装ではシングルコアかつCPUでしか計算できるものがなく、実用的な範囲の計算時間では大規模化が難しいという課題がありました。 そこで、独自の研究開発を重ね、並列化がCPUもりも難しいGPUを用いて非常に高い効率で並列化ができるアルゴリズムを考案し、その試験実装を行った結果、家庭向けの安価なGPU (NVIDIA GeFo

                                                          データベース検索秘匿化技術「Private Information Retrieval (PIR)」の最先端アルゴリズムの発明と特許・商標出願までの道のり - Qiita
                                                        • OpenCV 4.7.0のChangeLogを読み解く - Qiita

                                                          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事はOpenCV Advent Calendar 2022の12月33日の記事です。 TL;DR OpenCV 4.7.0が12/29にリリースされました、ということで、そのご紹介。 はじめに 自己紹介 どこにでもいる画像処理エンジニアでした!2023年はどうなるか分かりません!! ChangeLogの場所 OpenCVのChangeLogは、wikiで管理されている。 この修正内容のサマリーをざっくりと読み解いていきたい。こんな対応を入れたんだ、へー、というレベルで。 個人的気になったポイント SPNGライブラリ対応!libpn

                                                            OpenCV 4.7.0のChangeLogを読み解く - Qiita
                                                          • DirectX Adopting SPIR-V as the Interchange Format of the Future - DirectX Developer Blog

                                                            Today the Direct3D and HLSL teams are excited to share some insight into the next big step for GPU programmability. Once Shader Model 7 is released, DirectX 12 will accept shaders compiled to SPIR-V™. The HLSL team is committed to open development processes and collaborating with The Khronos® Group and LLVM Project. We’re sharing this information at the beginning of our multi-year development proc

                                                              DirectX Adopting SPIR-V as the Interchange Format of the Future - DirectX Developer Blog
                                                            • ローカルLLMでGraphRAGを実装して「クリスマスキャロル」を分析してみた - Sun wood AI labs.2

                                                              Docker/docker-composeのインストール Dockerのインストールはこちらを参考にしてください。 プロジェクトの作成 まず、任意のディレクトリを作成し、その中に以下の3つのファイルを作成します。 Dockerfile.llama Dockerfile docker-compose.yml Dockerfile.llama # ビルドステージ ARG CUDA_IMAGE="12.5.0-devel-ubuntu22.04" FROM nvidia/cuda:${CUDA_IMAGE} # 外部からのアクセスを許可するために、ホストを0.0.0.0に設定する必要がある ENV HOST 0.0.0.0 # 必要なパッケージのインストールと OpenCL の設定 RUN apt-get update && apt-get upgrade -y \ && apt-get ins

                                                                ローカルLLMでGraphRAGを実装して「クリスマスキャロル」を分析してみた - Sun wood AI labs.2
                                                              • Fine-tuning LLMs to 1.58bit: extreme quantization made easy

                                                                As Large Language Models (LLMs) grow in size and complexity, finding ways to reduce their computational and energy costs has become a critical challenge. One popular solution is quantization, where the precision of parameters is reduced from the standard 16-bit floating-point (FP16) or 32-bit floating-point (FP32) to lower-bit formats like 8-bit or 4-bit. While this approach significantly cuts dow

                                                                  Fine-tuning LLMs to 1.58bit: extreme quantization made easy
                                                                • AMD Open-Source GPU Kernel Driver Above 5 Million Lines, Entire Linux Kernel At 34.8 Million - Phoronix

                                                                  AMD Open-Source GPU Kernel Driver Above 5 Million Lines, Entire Linux Kernel At 34.8 Million Written by Michael Larabel in Radeon on 31 August 2023 at 11:13 AM EDT. 98 Comments With the in-development Linux 6.6 kernel adding support for more upcoming Radeon graphics processors, that means more auto-generated header files for the new IP blocks... I was curious to see the overall size now of the AMD

                                                                    AMD Open-Source GPU Kernel Driver Above 5 Million Lines, Entire Linux Kernel At 34.8 Million - Phoronix
                                                                  • 読み解くNDT Scan Matchingの計算 [後編] - TIER IV Tech Blog

                                                                    こんにちは、ティアフォーエンジニアの村上です。 今回は、 読み解くNDT Scan Matchingの計算 [前編] - Tier IV Tech Blog の続きとして、自動運転位置推定のターニングポイントとなった、Scan Matchingによる高精度自己位置推定技術の華、NDT Scan Matchingを読み解いてみようと思います。 まだの方は、前編もあわせてぜひご覧ください。 tech.tier4.jp なお、ティアフォーでは、「自動運転の民主化」をともに実現していく様々なエンジニア・リサーチャーを募集しています。もしご興味があればカジュアル面談も可能ですので以下のページからコンタクトいただければと思います。 TIER IV Careers tier4.jp Scan Matchingのスコア計算へ 復習になりますが、LiDAR点(ここではSourceと呼びます)とMap点(ここ

                                                                      読み解くNDT Scan Matchingの計算 [後編] - TIER IV Tech Blog
                                                                    • GitHub公式を装うマルウェア配布攻撃「Repo Squatting」に注意

                                                                      GMOサイバーセキュリティbyイエラエ(以下、イエラエ)は2026年1月22日、「GitHub」の公開リポジトリーの仕様を悪用したマルウェア配布手法および、その内部で使われたGPU関連技術に関する詳細な分析結果を公表した。 正規ソフトウェアを装ったインストーラーを通じて不正なプログラムを配布する攻撃キャンペーンを追跡した調査を報告している。 フォーク機能を悪用した「リポジトリ・スクワッティング」の仕組み 攻撃者はGitHubのフォーク機能とコミット表示の仕組みを悪用し、公式リポジトリー配下に存在するかのように見えるコミットを作成していた。同社は公式の名前空間を不当に占拠するこの手法を「リポジトリ・スクワッティング(Repo Squatting)」と呼称している。攻撃は2025年9~10月にかけて活発化し、開発者用のツールを検索する利用者を主な対象としていた。欧州地域を意識した広告配信が確認

                                                                        GitHub公式を装うマルウェア配布攻撃「Repo Squatting」に注意
                                                                      • Python: LightGBM v4.0 の CUDA 実装を試す - CUBE SUGAR CONTAINER

                                                                        LightGBM のバージョン 4.0.0 が 2023-07-14 にリリースされた。 このリリースは久しぶりのメジャーアップデートで、様々な改良が含まれている。 詳細については、以下のリリースノートで確認できる。 github.com リリースの大きな目玉として CUDA を使った学習の実装が全面的に書き直されたことが挙げられる。 以前の LightGBM は、GPU を学習に使う場合でも、その計算リソースを利用できる範囲が限られていた。 それが、今回の全面的な刷新によって、利用の範囲が拡大されたとのこと。 ただし、PyPI で配布されている Linux 向け Wheel ファイルは CUDA での学習に対応していない。 対応しているのは CPU と、GPU でも OpenCL の API を使ったもの。 そのため、もし CUDA を使った学習を利用したい場合には自分で Wheel を

                                                                          Python: LightGBM v4.0 の CUDA 実装を試す - CUBE SUGAR CONTAINER
                                                                        • GPU Optimization for GameDev

                                                                          GPUOptimizationForGameDev.md GPU Optimization for GameDev Graphics Pipeline / GPU Architecture Overview 2011 - A trip through the Graphics Pipeline 2011 2015 - Life of a triangle - NVIDIA's logical pipeline 2015 - Render Hell 2.0 2016 - How bad are small triangles on GPU and why? 2017 - GPU Performance for Game Artists 2019 - Understanding the anatomy of GPUs using Pokémon 2020 - GPU ARCHITECTURE

                                                                            GPU Optimization for GameDev
                                                                          • Paving the Road to Vulkan on Asahi Linux - Asahi Linux

                                                                            Hello everyone, Asahi Lina here!✨ As you probably know, I’ve been working together with the rest of the Asahi Linux team on open source GPU drivers for Apple Silicon platforms. It’s been a wild ride! Just at the end of last year we released the first version of our drivers, after many months of reverse engineering and development. But that was only the beginning… Today we’re releasing a big update

                                                                              Paving the Road to Vulkan on Asahi Linux - Asahi Linux
                                                                            • Yaksha | Home

                                                                              A manual memory managed, compiled to C99, programming language with off-side rule syntax, and YakshaLisp sublanguage. Simple. Strict. Speedy. Language syntax is minimalistic and has similarities to Python. Manual memory management is required. Use YakshaLisp to create macros (Hygenic, Non-hygenic, or non-hygenic metamacros). A versatile new tool Yaksha aims to be a simple general purpose language

                                                                              1