DeepLearning系の将棋AIがRyzenのiGPUで簡単に動いた、の続報で今回はふかうら王についてである。ふかうら王はやねうらお氏によって作られたdlshogi互換エンジンである。 ふかうら王の導入手順 Windows版実行ファイルは下記のページから辿っていき、ふかうら王の実行ファイル詰め合わせYaneuraOu-v7.6.1+20220511b.master-deep-windows.zipをダウンロードする。 yaneuraou.yaneu.com ふかうら王の導入手順は下記のページを見てほしい。 ふかうら王のインストール手順 · yaneurao/YaneuraOu Wiki · GitHub 上記ページに説明があるが、実行ファイル詰め合わせには以下の種類のふかうら王が含まれている。私が導入したのはORT-CPUとORT-DMLである。 ORT-CPU onnxruntime
~ このエントリは 【カヤック】面白法人グループ Advent Calendar 2023 の22日目の記事です。~ こんにちは!ハイパーカジュアルゲームチームの深澤です。 WebGL2において GPU Instancing でメッシュを大量に表示しつつ、Transform Feedback を使ってインスタンスごとの情報計算もGPUに任せてみたいと思います。 ↓ デモはこちらになります。画像かURLから飛ぶことができます デモ: https://takumifukasawa.github.io/webgl-transform-feedback-gpu-instancing/ ↓ リポジトリのURL github.com メッシュ1つあたりの頂点数は24です。描画色は、インスタンスごとの色をふまえて平行光源の拡散光だけ計算しています。 GPU Instancing を使っていて、ドローコー
「Llama.cpp」のHTTPサーバー機能を試したのでまとめました。 ・Mac M1 1. モデルの準備今回は、「vicuna-7b-v1.5.ggmlv3.q4_K_M.bin」を使います。 ・TheBloke/vicuna-7B-v1.5-GGML ・TheBloke/vicuna-7B-v1.5-16K-GGML ・TheBloke/vicuna-13B-v1.5-GGML ・TheBloke/vicuna-13B-v1.5-16K-GGML 2. ローカルPCでの実行ローカルPCでの実行手順は、次のとおりです。 (1) Llama.cppのインストールとビルド。 $ git clone https://github.com/ggerganov/llama.cpp $ cd llama.cpp $ make(2) modelsフォルダにモデルを配置。 今回は、「vicuna-7b-
こんにちは。 前回はGPU製造のトップ企業、エヌヴィディアを中心とする循環取引――2社以上の企業がお互いに相手先に対する架空の売上を計上して実態より高い収益をあげているように見せかける手法――について説明させていただきました。 今回は架空売上の規模ではGPUをめぐる循環取引より大きい可能性が高い、生成AIとクラウド事業をめぐる循環取引疑惑について詳述したいと思います。 なぜ誕生して間もなく、まだまだ急成長期にあるはずの生成AIが循環取引という姑息な手段で売上高のカサ増しをしなければならないかと言うと、鳴りもの入りで華々しく登場しながら、正直な数字を出せばがっかりするほど収益成長率が低いからです。 生成AIの普及は遅々として進まない エヌヴィディアは最新のH100型GPUを2023年1年間だけでマイクロソフトとメタ(フェイスブック)には15万個ずつ、アルファベット(グーグル)、アマゾン、オラ
米Advanced Micro Devices(AMD) Chair and CEOのLisa Su氏は、データセンターやAI(人工知能)に焦点を合わせたプライベートイベント「Data Center and AI Technology Premiere」(2023年6月13日に米国で開催)の基調講演において、GPGPU(General Purpose Graphics Processing Unit)「Instinct」の新製品「AMD Instinct MI300X」(以下、MI300X)を発表した。「MI300Xは生成AI向けに開発した」(同氏)という(図1)。 同じイベントでAMDはサーバー用マイクロプロセッサー(MPU)「EPYC」の新製品も発表しており、その際は競合製品として米Intel(インテル)の「Xeon Scalable Processor(SP)」を挙げていた。今回のG
Magnificent Seven(マグニフィセント・セブン)、これは映画「荒野の七人」の原題である。従来のGAFAM(Google、Amazon、Facebook(現Meta)、Apple、Microsoft)にエヌビディアと電気自動車のテスラを入れて、アメリカにおける「偉大な7社(マグニフィセント・セブン)」と呼ばれるようになった。 エヌビディアは、1993年設立の半導体メーカー。コンピュータ上に絵を描くためのグラフィックスプロセッサ(GPU:Graphics Processor Unit)を得意とし、コンピュータゲーム用のGPUを中心にビジネスを続けてきた。 数年前から業績を様変わりさせたのは、次々と投入するAI(人工知能)やHPC(スーパーコンピュータなどの高性能コンピューティング)向けの製品だ。 時価総額1兆ドル超え 8月23日に発表した2023年5~7月期決算では、売上高が前年
7月6日〜14日の9日間、ABCIの主催で 第1回大規模言語モデル分散学習ハッカソン が開催されました。自分はいいだしっぺ 兼 チューターとして参加したのですが、今回のイベントは個人的な学びも多かったし、なにより楽しかったので、忘れないうちに振り返っておこうと思います。 いいだしっぺというのは、3月に上記の tweet をしたら NVIDIA の @sfuruyaz さんが拾って諸々進めてくれた、という話です。自分はイベント内容の案をだしたり、技術検証やサンプルプログラムを作成したりしました。 イベント概要 イベント概要は以下の通りです 期間: 2023/07/06 - 2023/07/14 (9日間) 場所: オンライン(初日・最終日はオフラインとのハイブリッド開催) 参加数: 20チーム 提供リソース: Vノード(1000 ABCIポイント) サポート: チューター(言語モデルや機械学
OpenInterpreter はデフォルトだと GPT-4 が使われるが、ローカルの Code Llama を使うこともできるということで、 試しに設定して使ってみました。 設定をする上で何点かつまづいたので、解決に繋がったものをメモします。 今回使ったハードウェア環境は、M1 Macbook Pro 16GB です。 ローカルの Code Llama を使うにはOpenInterpreter は、ローカルの Code Llama を使うことができます。 ローカルの Code Llama を使うには、以下のようにします。 interpreter --local使いたいモデルのパラーメータを聞かれるので、今回は「7B」「Medium」「GPU あり」を選択しました。 Open Interpreter will use Code Llama for local execution. Use
NVIDIA GeForce RTX 4070 Superは2024年1月17日発売、続いてRTX 4070 Ti Superが1月24日、RTX 4080 Superが1月30日発売と毎週新モデル投入へ NVIDIAでは2024年1月はじめに開催されるCES2024近辺でGeForce RTX 4000 Superシリーズの発表を行うと見られていますが、中国で半導体系情報のやり取りが行われる掲示板『博板堂』にてGeForce RTX 4000 Superシリーズとして投入される3モデルそれぞれの発売日が明らかになりました。 まずGeForce RTX 4000 Superシリーズ(RTX 4070 Super / RTX 4070 Ti Super / RTX 4080 Super)として投入される3モデルについては2024年1月8日に正式発表が行われます。 その次の週に当たる2024年
世界で初めてリアルタイムレイトレーシング技術を搭載したNVIDIAの「GeForce RTX 20シリーズ」がリリースされてから約6年。リアルタイムレイトレーシング処理の実装は、どのように進化していったのだろうか……? リアルタイムレイトレーシングの大まかな歴史 2018年、リアルタイムレイトレーシング技術を世界で初めて搭載したのがNVIDIAの「GeForce RTX 20シリーズ」だ。 →NVIDIAが新アーキテクチャの「GeForce RTX」シリーズを発表 価格は499ドルから 同年、Microsoftはゲーム/マルチメディア向けAPIセット「DirectX 12」に、GPUのリアルタイムレイトレーシング処理機能を使うためのAPI「DirectX Raytracing」を追加した。ただ、本APIが本格的に使われ始めたのは、2020年に「DirectX 12 Ultimate」がリリ
関連キーワード Linux | OS | 運用管理 | セキュリティ OS「Linux」は、複数のセキュリティモジュールを組み込んでいる。アクセス制御を実現するための代表的なセキュリティモジュールが「SELinux」(Security-Enhanced Linux)「AppArmor」だ。「Red Hat Enterprise Linux」(RHEL)およびその派生ディストリビューション(配布パッケージ)はSELinuxを、「Debian」およびその派生ディストリビューションはAppArmorを主に標準セキュリティモジュールとして採用している。両者には、それぞれどのような利点と欠点があるのか。 SELinuxの利点と欠点 併せて読みたいお薦め記事 連載:Linuxのセキュリティを比較 前編:Linuxを守る「SELinux」と「AppArmor」は何が違うのか? Linuxの運用管理 いま
Intelが2023年12月に正式発表した第14世代CoreプラットフォームのノートPC向けプロセッサ「Core Ultra」は、2023年9月に発表されたMeteor Lakeアーキテクチャがベースになっています。そんなCore UltraにはAI処理に特化したニューラルプロセッシングユニット(NPU)が搭載されており、このNPUについて海外メディアのChips and Cheeseが解説しています。 Intel Meteor Lake’s NPU – Chips and Cheese https://chipsandcheese.com/2024/04/22/intel-meteor-lakes-npu/ Core Ultraに搭載されたNPUは「NPU 3720」と呼ばれています。そんなNPU 3720には2つのニューラルコンピューティングエンジン(NCE)タイルが搭載されており、こ
主にAI処理用途での先行者利益と性能の良さで採用が拡大している。2006年からGP(汎用)GPU開発環境「CUDA」を展開する。TransformerはNVIDIAのGPUを前提に設計した。 先行者利益─。米NVIDIAがAI半導体市場で独走する大きな理由の1つである。同社は2006年からCUDA(Compute Unified Device Architecture)を公開し、いち早くGPUを科学計算用途に広げた。これが深層学習の研究開発でも活用されるようになった。2022年には大規模言語モデル(LLM)向けに「H100 Tensor Core GPU」を出荷開始し、世界中でH100不足を起こすまでになっている(図1)。 2006年時点で他社に先んじてGP(汎用)GPUの開発環境「CUDA」を提供し、GPUの用途を画像処理から並列演算処理全般に広げた。その後、並列演算の応用先としてニュー
姪っ子がパソコンを欲しいとかいい出した。 新品をくれてやるのは惜しいので、自分の使っているものをあげることにした。 孝信s Photoブログ 4 Posts パソコン逝ったあぁぁ!!パソコン買ったあぁぁぁ!! https://takanobu.me/dell-2 10年来使ってなんとか延命を続けてきたデスクトップパソコンがついに逝った。ビープ音を発して起動しなかったり(音的にはグラボっぽい)、頻繁にフリーズしだしていたのでそろそろヤバいかとは思っていたのだけども、ついにもう補修しても起動しなくなった。もうそろそろダメかと思って一応資金は確保しておいたので後は早いか遅いかだけではあったのだけども、ついにである。 で、次に買ったのはDELLのこちら。XPS 8950。(function(b,c,f,g,a,d,e){b.MoshimoAffiliateObject=a;b=b||functio
NVIDIAの2024年第3四半期における収益が前年比206%増となり、過去最高を記録しました。生成AIの普及により機械学習に求められるGPUの需要が格段に増し、データセンターを運営する企業との取引が好調であるとの分析が行われています。 NVIDIA Announces Financial Results for Third Quarter Fiscal 2024 | NVIDIA Newsroom https://nvidianews.nvidia.com/news/nvidia-announces-financial-results-for-third-quarter-fiscal-2024 Nvidia sold half a million H100 AI GPUs in Q3 thanks to Meta, Facebook — lead times stretch up to
快進撃を続ける米NVIDIA(エヌビディア)。AI(人工知能)半導体であるGPU(画像処理半導体)の行方を占う連載の3回目は、「ポストGPU」と呼ばれる新型のAI向け半導体を取り上げる。この領域はスタートアップを中心に様々な技術が登場している。GPUのボトルネックを狙う最終兵器とは。 ポストGPUの特徴に、今後のニーズを見据えてAIの学習ではなく推論を専用とするスタートアップが多いことが挙げられる。例えば米d-Matrix(dマトリックス)は異なるチップを組み合わせる「チップレット」技術を採用し、最先端GPUの40倍のメモリー帯域幅を実現した。 米ハーバード大学を中退した21歳のコンビが起業した米Etched.ai(エッチドAI)や、米Google(グーグル)で機械学習向けチップ「TPU(Tensor Processing Unit)」を担当していたエンジニアが創業した米Groq(グロック
2024年2月26日からスペインのバルセロナで開催されているテクノロジー見本市・MWC Barcelona 2024で、NVIDIAが「Ada Lovelace」アーキテクチャを採用したモバイルGPUである「RTX 500 Ada Generation」と「RTX 1000 Ada Generation」を発表しました。 NVIDIA RTX 500 and 1000 Professional Ada Generation Laptop GPUs Drive AI-Enhanced Workflows From Anywhere | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-ada-ai-workflows/ Nvidia talks up local AI with RTX 500, 1000 Ada launch • The Regis
NVIDIAとAMDがArmベースのWindows PC向けプロセッサを、早ければ2025年にも販売する可能性があるとReutersが報じた。このレポートが公開された直後にIntel株が約3%下落した。 ReutersはArmベースのPC用チップの製造計画に詳しい2人の情報提供者から得た情報を基に、23日に「NVIDIA to make Arm-based PC chips in major new challenge to Intel」という記事を公開した。この動きの背景には、ArmベースのPC市場の拡大を狙うMicrosoftの意向がある。AppleがApple Silicon搭載Macの提供を開始してから3年未満でシェアを倍増近くに伸ばしており、Microsoftはその成長を強く意識しているという。 ユーザーの需要も増しており、Counterpointによると、ArmベースのPCの市
超小型のデスクトップPCを続々と発表し続けているMINISFORUM(ミニスフォーラム)から、Ryzen 7を搭載した「EM680」が登場した。まず驚くのはそのサイズ感だ。 ボディーサイズが約80(幅)×80(奥行き)×43(高さ)mm、重さ約445gという、同社の製品ラインアップの中でもトップレベルに小さくて軽い。さらにデスクのどこに置いても使えるボディーでありながら、中身はパワフルというユニークなギャップも持ち合わせているという。 価格はMINISFORUM日本公式ストアで6万1580円(税込み、以下同。記事下部にクーポンコードあり)からとなっている。今回はこのEM680について紹介していきたい。 最新のZen 3+コアアーキテクチャを採用 EM680に搭載されているCPUは、ポータブルタイプのゲーミングPCなどに採用されているRyzen 7 6800Uだ。8コア16スレッドでベースク
米半導体大手エヌビディアの時価総額が2月12日、米グーグル親会社のアルファベットやアマゾンを上回った。人工知能(AI)分野で市場をリードしていることからエヌビディア株は投資家の関心を集めており、株価は過去15カ月で4倍以上に高騰している。 エヌビディアの株価は同日、前週末比で一時3%近く上昇し、740ドル(約11万円)を超える最高値をつけた。時価総額は1兆8300億ドル(約273兆円)に達し、アルファベットの1兆8200億ドル(約272兆円)、アマゾンの1兆8000億ドル(約269兆円)をわずかに上回った。 AIブームで投資家らがエヌビディア株に殺到する中、時価総額順位の入れ替えはエヌビディアの驚くべき成長を象徴している。 エヌビディアの時価総額は、AIブーム直前の2022年10月には3000億ドルを下回っており、当時1兆ドルを超えていたアマゾンやアルファベットと大きく離れていた。 エヌビ
米NVIDIAは8月8日(現地時間)、生成AIモデル構築のための新たな統合ツールキット「AI Workbench」を発表した。生成AIモデルをPCやワークステーション上で構築、テスト、カスタマイズできるように設計されている。必要であればそれをデータセンターやクラウドに拡張可能だ。 現在、多数の事前トレーニング済みモデルが利用可能になっているが、それを複数のオンラインリポジトリを横断して探し回り、適切なフレームワークやツールを探すのが大きな負担になっているとNVIDIAは説明する。 AI Workbenchはローカルシステム上で実行できる簡素化されたツールを介してモデルにアクセスできるため、こうした負担を軽減できるとしている。 開発者は、Hugging Face、GitHub、NVIDIA NGCなどの一般的なリポジトリのモデルをカスタマイズでき、モデルは複数のプラットフォーム間で共有できる
IT Leaders トップ > テクノロジー一覧 > AI > 新製品・サービス > IBM、大規模言語モデル「Granite」日本語版を2024年第1四半期に提供、シングルGPUで動作 AI AI記事一覧へ [新製品・サービス] IBM、大規模言語モデル「Granite」日本語版を2024年第1四半期に提供、シングルGPUで動作 2023年9月20日(水)日川 佳三(IT Leaders編集部) リスト 日本IBMは2023年9月20日、米IBM開発の大規模言語モデル「Granite(グラナイト)」の日本語版を2024年第1四半期(1~3月)に提供開始すると発表した。2023年12月に先行リリース版を提供する。AIモデル作成・運用ツール「watsonx.ai」で利用できる。現在、watsonx.aiではIBM独自の基盤モデルとして情報抽出や分類などを実行する「Slate」を利用可能だが
神様。ちょい古なノートPCでゲーミング&生成AIの夢を見たいのですが2024.03.30 18:0023,795 武者良太 そのお願い。叶えてくれるのですか神様。 写真だけ見ると、ちょっと?いやかなり大きな多機能USBハブ。しかしこのハコのなかには、Radeon RX 7600M XTが入ってる。 AMD入ってる! つまるところこの「GPD G1 2024」はeGPUこと外付けGPUボックスです。モバイル用GPUを使うことで、レンガみたいなデカさの外付けGPUボックスからSwitchサイズにまでダイエットできたんですね。 Image: リンクスインターナショナル計測の仕方によっても変わるけど、Radeon RX 7600M XTはRTX 3060 Mobile~RTX 4060 Mobileくらいのパワーを持ってるGPU。そいつをこーしてこーやって小さめのハコに入れちゃった。使い勝手、よさ
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く