Appleが先月発売したM2搭載の新型iPad Air。 その製品仕様がこっそりと変更されていることを9to5Macが伝えています。 Appleは当初iPad AirのM2チップは10コアGPUを搭載としていましたが、現在は一部のページで9コアGPUと記載しており、GPUのスペックが下げられています。 更新6月4日:一部リンクが間違っていましたので訂正しました iPad Air M2Appleはこの変更について何も説明せずに、新しいM2 iPad Airの米国の製品仕様を更新し、GPUコアを10コアから9コアにダウングレードしています。9to5Macによると、この変更は直近10日以内に行われています。 iPad Air M2:製品ページ内の仕様一方、米国以外のたとえば日本の製品仕様を確認すると、依然として10コアGPUのままです。また、サポートページ内の技術仕様(米国版)(日本版)や、発表
半導体やAIフレームワークを提供するNVIDIAが、2023年にAIやNVIDIA製の半導体が活躍したケースを公式ブログにまとめています。 11 Ways AI Made the World Better in 2023 | NVIDIA Blog https://blogs.nvidia.com/blog/ai-better-world-omniverse-jetson/ ◆01:カリフォルニア州の山火事監視 アメリカのカリフォルニア州では、近年の気候変動による夏の酷暑の影響もあり、山の乾燥した葉が自然発火して大規模な山火事に発展するケースが増えています。 カリフォルニア州に本社を構えるインターネットサービスプロバイダーのDigitalPathは、カリフォルニア大学サンディエゴ校とカリフォルニア州消防署山火事局と協力し、山火事を早期発見する畳み込みニューラルネットワークを開発しているとの
経済産業省と新エネルギー・産業技術総合開発機構(NEDO)は2月2日、大量のデータを事前学習したAIモデル「基盤モデル」の開発支援事業について、採択先を決定した。元米Googleの著名な研究者、リオン・ジョーンズ氏とデビッド・ハー氏らが東京で立ち上げたAI企業Sakana.ai(東京都港区)や東京大学など7組織を選んだ。 東京大学やSakana.aiの他には、Preferred Networksの子会社Preferred Elements(東京都千代田区)、AIスタートアップのストックマーク(東京都港区)、情報・システム研究機構、自動運転EVスタートアップのTuring(千葉県柏市)、ABEJAを採択。対象組織は、GPU「NVIDIA H100」を搭載したGoogleのスーパーコンピュータ「A3」の利用料補助などを6カ月間受ける。 今回の開発支援事業は2023年11月に発表したもの。経産省
スタンフォード大学のクリストファー・レ教授率いる研究チームがGPUを最大限に活用して一定時間当たりの演算量を最大化するためのドメイン固有言語(DSL)「ThunderKittens」をリリースしました。 ThunderKittens: A Simple Embedded DSL for AI kernels · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-quick-tk GPUs Go Brrr · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-tk 研究チームはNVIDIA H100を使用し、GPU使用率の最大化に取り組みました。H100はTensorコアを使用する半精度行列乗算計算の性能が989TFLOPSであり、その他
経済産業省と新エネルギー・産業技術総合開発機構(NEDO)が、さまざまなタスクに適応可能な大規模AIモデル「基盤モデル」の開発支援事業を始めた。 経済産業省と新エネルギー・産業技術総合開発機構(NEDO)は11月10日、大量のデータでトレーニングし、さまざまなタスクに適応可能な大規模AIモデル「基盤モデル」の開発支援事業を始めた。採択した企業を対象に、GPU「NVIDIA H100」を搭載した米Googleのスーパーコンピュータ「A3」の利用料を補助する。 NEDOによる研究開発支援事業「NEDOポスト5G情報通信システム基盤強化研究開発事業」の一環として、同日から12月11日にかけて公募する。採択された場合、A3をクラウド経由で利用でき、中小企業であれば一定額を、大企業の場合は一律で半額を補助するという。補助が受け取れる期間は研究開発の開始から半年間。スパコンの利用料金だけでなく、AIモ
Appleが今年後半の発売に向けて準備を進めている「iPhone 16」について。 そのハイエンド「iPhone 16 Pro」シリーズ向けとなる次世代「A18 Pro」チップは、AI機能を高めるためダイサイズが大きくなることをAppleのサプライチェーンに精通するHaitong International SecuritiesのアナリストJeff Pu氏が報告しています。 Pu氏はまたその最新報告で、A18 Proチップは6コアのGPUを搭載し、iPhone 15 ProシリーズのA17 Proチップと同等になるとも予測しています。 新しいiPhoneのイメージ 生成AI iOS 18には、Siri、Spotlight、Apple Music、ヘルスケア、メッセージ、Numbers、Pages、Keynote、ショートカットなど、iPhoneの諸機能やアプリに新しい生成AI機能が搭載され
AI 技術 技術-Technology NormalmapLighting - とりにく氏による線画から法線マップを生成... 2024-04-04 とりにく氏( @tori29umai )による線画から陰影を出力するAIアプリ「NormalmapLighting」がFanboxにて早期アクセス公開されています。 続きを読む Unreal Engine アセット アセット-Asset Procedural City Generator - Procedural W... 2024-04-03 Procedural World LabによるUnreal Engine 5向け都市生成プラグイン『Procedural City Generator』のご紹介です。 続きを読む モデリング 技術 技術-Technology MonoHair:High-Fidelity Hair Modeling f
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます NVIDIAは米国時間11月13日、同社の最新のサーバー向けGPUである「NVIDIA HGX H200」を発表した。「NVIDIA Hopper」アーキテクチャーを使用したこのGPUには、生成人工知能(AI)やハイパフォーマンスコンピューティングの大容量データを扱うために、最新のメモリー技術を採用している。 H200は、世界で初めて「HBM3e」のメモリーを搭載したGPUだ。メモリーの容量は141GB、帯域幅は4.8TB/sで、前世代の「NVIDIA A100」と比べ、容量は約2倍、帯域幅は約2.4倍のスペックになっている。大規模なデータを高速に処理できるため、大規模言語モデルを使用した生成AIや、ハイパフォーマンスコンピューティング
つまりHPC向けの演算性能は、基本的な部分がMI250世代と変わっていないので、なるほどAMDがMI300XシリーズでAI性能の高さを大々的にアピールしていたわけである。また、MI200世代ではXCUという表記だったのが、MI300世代ではCUに戻っている。したがって、以下は表記をCUに戻す。 Matrixに関しても、FP64/FP32が全然変わっていない。もちろん科学技術計算でMatrix Engineを利用する可能性があるので、ここはMI250世代と同じスペックは維持している。一方でAI向けで言えば、学習用途でFP64を使う可能性はまずなく、FP32も最近はあまり使われなくなっている。 ただFP16/BF16では精度的にやや足りない用途向けに新たにTF32が追加され、これが1024Flops/サイクルとMI250のFP32から8倍のスループットになった。TF32は仮数部10bit、指数
RTX 4090 が圧勝(そりゃそうだろう)、というのは置いておいても、T4 の60%の速度が M2 GPU 10 コアで出ている。M3 Max はGPU 40コアモデルもあって、速度が線型増加すると仮定すると、M3 Max GPU 40コアならRPSは130ぐらい。RTX4090 の 1/3ぐらいの速度になって、ラップトップPCのGPUとしてはかなり速い。T4の倍以上の速度は出そう。 M2 の Embeddings の変換は実用的な速度か?と言われると用途によりそう。すごく遅くはないが、早くもない。ただ、M2 CPU で変換するよりは GPU は3倍は速いし、HuggingFace Transformers なら device を "mps" にするだけで使えるので、Mac で使う場合は当たり前に GPU を使っていきたい。M3 Max なら大体の用途で、そこそこ実用的な速度が出るんじゃ
Groq の LPU Image credit: Groq カリフォルニア州マウンテンビューを拠点とするスタートアップ Groq は、大規模言語モデル(LLM)を迅速かつ効率的に実行するために特別に設計された独自のマイクロチップで AI コミュニティの注目を集めたが、今週さらに波紋を広げている。 同社は1日、スタートアップの Definitive Intelligence の買収と、以前から継続中の両社の協力関係の上に構築された新製品「GroqCloud」を発表した。GroqCloud は、両社が「完全に統合されたドキュメント、コードサンプル、セルフサービスアクセスを備えた開発者の遊び場」と表現している。 大きな売りは AI 推論を実行するための LPU アクセス しかし、GroqCloud の大きな売りは、AI 開発者ユーザが Groq 言語処理ユニット(LPU)推論エンジンにアクセスで
LLaMA.cppのスループットをローカルで検証してみました。OpenLLaMA 7B/13Bをベースに、CPU/GPUのそれぞれの生成速度(token per second)と量子化の関係を実験的に調査します。 はじめに LLaMA.cppを使うとモデルを高速に軽量に実行できますが、量子化とスループットの関係、デバイスごとの関係がよくわからなかったので検証しました。 環境 LLaMA.cpp https://github.com/ggerganov/llama.cpp 最新版は変換後のモデルがggufフォーマットだが、旧版のggmlのフォーマットを使用(元の利用想定が、MiniGPT4.cppで旧版に統一する必要があったため) コミットIDはdadbed9になるように、git cloneしたあとcheckoutする ビルドはcuBLASを使ってビルド。実行時のみGPUを使うかどうかを切り
NVIDIAがGeForce RTX GPUでCopilot+対応を計画。数か月以内に投入予定 Microsoftが2024年5月20日に発表したCopilot+ではNPUなどを利用し、パソコンの操作やファイル履歴などから必要な情報を素早く呼び戻せる『Recall』やAI画像作成や編集機能を追加した『Cocreator』などAIをフル活用した機能がWindows 11に組み込まれる事が明らかにされました。 このCopilot+の動作には40 TOPsを超えるNPUが必須であり、6月に発売されるQualcomm Snapdragon Xシリーズと2024年後半に投入されるAMD Ryzen AI 100シリーズ(Strix Point)、Intel Arrow LakeとLunar Lake CPUのみ対応するため、高性能なグラフィックスカードを備えたデスクトップ向けPCでは対応が難しいと考
3万5000円で買える新型ミドルクラスGPUは,どんな位置付けにあるのか? ASRock Intel Arc A580 Challenger 8GB OC Text by 宮崎真一 NVIDIAでもAMDでもない,新たなGPUの選択肢であるIntelのゲーマー向けGPUブランド「Intel Arc」。第1弾となる「Intel Arc A700」シリーズ(開発コードネーム Alchemist)は,2022年に登場しており,2023年10月には,ミドルクラス市場向け製品となる「Intel Arc A580」(以下,Arc A580)が登場した。 今回は,Arc A580を搭載したASRockの「Intel Arc A580 Challenger 8GB OC」(型番:Arc A580 CL 8GO)を試用する機会を得たので,その実力を確かめてみたい。はたして,ゲーマーにとっての位置付けはどのよ
Today, we are thrilled to announce the launch of Deploy on Cloudflare Workers AI, a new integration on the Hugging Face Hub. Deploy on Cloudflare Workers AI makes using open models as a serverless API easy, powered by state-of-the-art GPUs deployed in Cloudflare edge data centers. Starting today, we are integrating some of the most popular open models on Hugging Face into Cloudflare Workers AI, po
チューリング株式会社(千葉県柏市、代表取締役:山本 一成、以下「チューリング」)は、完全自動運転AIの実現に向け、大規模言語モデル(LLM)やマルチモーダルモデル向けの専用計算基盤として、GPUクラスタシリーズ「Gaggle Cluster」の構築に着手したことを発表します。 今回構築する最初のクラスタ「Gaggle-Cluster-1」は、96基のNVIDIA H100 GPUを搭載し、総計算能力190PFLOPSとなる、国内の企業が専有するGPU計算基盤としては最大規模のGPUクラスタです。システム全体として2024年前半の稼働開始を目指しています。 Gaggle-Cluster-1は多数のGPUサーバーで構成されているだけでなく、サーバー間の通信帯域及びストレージ速度を最大限に確保し、これによりクラスタ全体を「単一の計算機」として大規模な学習タスクに最適化させることが最大の特徴です。
2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日
Aaron Mok [原文] (翻訳:仲田文子、編集:井上俊彦) Jan. 24, 2024, 11:00 AM テックニュース 12,272 メタのマーク・ザッカーバーグCEO(左)と、エヌビディアのジェンスン・フアンCEO(右)。 Kevin Dietsch, Getty Images; Sam Yeh メタは需要が極めて高いエヌビディアのH100チップを、2024年末までに34万個以上入手するようだ。 他にも合計60万個のチップを集めようとしているとThe Vergeが報じている。 マーク・ザッカーバーグCEOは、メタを「AIファースト」の企業にすることを目指している。 メタ(Meta)は、AI戦争で優位に立つために、多くの企業が手に入れたがっている半導体を、何百、何千と備蓄する予定だ。 メタのマーク・ザッカーバーグ(Mark Zuckerberg)CEOがThe Vergeに語った
「Cinebench」は3DCG作成アプリ「Cinema 4D」のレンダリングエンジンを用いてマシンの性能を計測できる無料ベンチマークアプリです。従来のCinebenchはCPUの性能測定にのみ対応していましたが、2023年9月5日(火)に登場した「Cinebench 2024」ではGPUの性能測定も可能になりました。そこで、実際にCinebench 2024を使ってGPUの性能を測定する手順を確認してみました。 Maxonは、Cinebench 2024を発表 https://www.maxon.net/ja/article/maxon-introduces-cinebench-2024 Cinebench 2024はWindowsとmacOSに対応した無料ベンチマークアプリです。今回は「Intel Core i7-6800K」と「NVIDIA GeForce RTX 3060」を搭載し
アメリカは半導体関連製品の中国への輸出を厳しく制限しています。中国は規制を回避しつつ高性能チップの生産を行うことを目指しており、複数の中国企業がマレーシア企業に高性能チップの組み立てを委託していることや、日本の半導体企業の製品が中国企業に採用される事例が増えていることが報じられています。 Exclusive: Chinese firms look to Malaysia for assembly of high-end chips, sources say | Reuters https://www.reuters.com/technology/chinese-firms-look-malaysia-assembly-high-end-chips-sources-say-2023-12-17/ Tokyo Electron says China is snapping up its les
さくらインターネットは1月12日、GPUクラウド事業を手掛けるハイレゾ(東京都新宿区)との連携を発表した。各社の顧客に互いのサービスを紹介し合う体制を構築するという。 さくらインターネットはハイレゾのGPUサービス「GPUSOROBAN」を、ハイレゾはさくらインターネットのクラウドサービスをそれぞれの顧客に紹介。これにより「研究開発に特化したハイレゾの計算資源と、さくらインターネットの安定した計算資源を顧客の目的に沿って提供可能になる」(2社)という。 さくらインターネットは生成AI需要を踏まえ、クラウドサービスの提供を強化している。2023年6月には米NVIDIAのGPU「NVIDIA H100 Tensor コア GPU」を2000基以上導入し、生成AI向けクラウドサービスの提供を発表した他、GPUクラウドサービスに3年間で130億円投資する計画を明らかにした。 関連記事 ドスパラがG
The IconfactoryがCPUやGPU、メモリ使用率を表示してくれるMac用システムモニタアプリ「iPulse」のiPhone/iPad版をリリースしています。詳細は以下から。 iPulseは旧TwitterクライアントTwitterrificなどを開発している米The IconfactoryのCraig Hockenberryさんが2002年から開発を続けているMac用のシステムモニターアプリで、Macのディスプレイ最前面にCPUやGPU、メモリ、ストレージ、ネットワーク使用率を表示してくれる機能がありますが、 Craigさんは、このiPulseアプリの機能をiPhoneやiPad上で再現した「iPulse – Monitor Your Device」を新たにリリースしたと発表しています。 … iPulse is available on another platform! We
chatGPTを筆頭とするオンライン上で利用できるAIサービスに対し、公開されているモデルをダウンロードして、ローカル上で動かすことのできるLLaMA系の大規模言語モデルや、Stable Diffusionなどの画像生成AIも広がってきた。 どれだけ生成しても無料で利用できるというメリットはもちろん、ファインチューニングを施して自分の用途に合わせたカスタマイズをできる魅力もある。 しかし、生成AIを自分のPCで動かす上での最大の懸案は、超強力なGPUパワーを必要とすることだ。 RTX 4090などは、30万円に近い価格で販売されており、趣味で生成AIをローカルで使うために、とても気軽に買える値段ではない。 その点、「Vast.ai」という個人間でGPU仮想マシンをレンタルできるサービスは、RTX4090を1時間レンタルして好き放題生成AIのモデルをダウンロードして動かしても、50円強しかか
生成AI(人工知能)のブームによってデータセンターの主役へ躍り出ようとしているGPU(画像処理半導体)サーバー。その内部は従来型サーバーとは大きく異なる。 情報システムにとって絶対に欠かせない存在であるサーバーの「新常識」を紹介する本特集。第3回は米NVIDIA(エヌビディア)のAI用GPU「H100」を搭載する「DGX H100」を例に、GPUサーバーの常識を取り上げる。 そもそも大規模言語モデル(LLM)のトレーニング(訓練)や推論に欠かせないH100は、ゲーム用パソコンに搭載されている一般的なGPUとは全く違う形状をしている。エヌビディアのJensen Huang(ジェンスン・ファン)CEO(最高経営責任者)は2023年8月23日の決算電話会見で「H100は3万5000個の部品で構成された70ポンド(約32キログラム)の製品で、1兆トランジスタが組み込まれている」と説明する。H100
AMDは12月6日(米国太平洋時間)、HPC(ハイパフォーマンスコンピューティング)/データセンター向けのGPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表した。搭載する製品は、2024年初頭から登場する予定だ。 Instinct MI300シリーズの概要 Instinct MI300シリーズは、AMDのGPUアクセラレータ「Instinct MI」の最新モデルで、最新の「CDNA 3アーキテクチャ」のGPUコアを搭載している。先代の「Instinct MI200シリーズ」と比べると、演算ユニット(CU)は最大約40%増加し、対応するメモリ容量は最大1.5倍となり、メモリ帯域幅(ピーク時)は最大1.7倍となっている。 ラインアップは、CPUコアも備えるAPU「Instinct MI300A」、PCI Express 5.0接続のOAMモジュールとして提供される「Ins
概要 昨年末に以下の記事でubuntu-drivers devicesコマンドでrecommended表示が付いたNVIDIA製のGPUドライバーをUbuntuにインストールするとGPUが正常に認識されず、nvidia-smiコマンドを実行すると「No devices were found.」とメッセージが出力される問題が発生すること、そしてその対処方法について投稿しました。 しかし、この方法はあくまでその場しのぎの対処方法であり、根本的な問題解決とはなっていませんでした。そこで筆者は根本原因の特定を行うため、Linuxに詳しい友人の協力を得て、根本原因の特定する調査を行いました。結果として、根本原因の特定と、解決方法を解明しましたが、現状open版のGPUドライバーはrecommendedにはなっていません。しかし、open版ドライバーには新機能が実装されていてそれを試したい時にこの方法
Android版のChrome 121、高速なグラフィクス描画やGPUプログラミングを可能にする「WebGPU」が標準で利用可能に Googleは1月17日付けでリリースしたChrome 121のAndroid版で、QualcommとARMのGPUを搭載したデバイスではWebGPUがデフォルトで有効になったことを明らかにしました。 下記はGoogle ChromeエバンジェリストFrançois Beaufort氏のポストです。 Chrome 121 is packed with WebGPU features: Now on Android! Use of DXC for shader compilation Timestamp queries in passes Default entry points to shader modules display-p3 color space
Large language models require huge amounts of GPU memory. Is it possible to run inference on a single GPU? If so, what is the minimum GPU memory required? The 70B large language model has parameter size of 130GB. Just loading the model into the GPU requires 2 A100 GPUs with 100GB memory each. During inference, the entire input sequence also needs to be loaded into memory for complex “attention” ca
Amazon.co.jpはこちらMINISFORUM(直販)はこちら巧みなマーケティング戦略を用いて、日本市場でミニPCといえばMINISFORUMと言われるほど定番化した中華ブランドです。 最近は定価10万円クラスのハイエンドミニPCを数多く販売していて、今回レビュー用に買った「UM780 XTX」もハイエンドモデルのひとつです。 CPUに「Ryzen 7 7840HS」を搭載します。台湾TSMC 4 nmプロセスで製造される最新のZen 4コアを8コア16スレッドと、現時点で最強クラスの内蔵GPU「Radeon 780M(最大2.7 GHz)」を内蔵するモバイルAPUです。 メインメモリにDDR5-5600(SODIMM)を2枚組(デュアルチャネル仕様)を、メインSSDに最大5000 MB/sの高速NVMe SSDを容量1 TB搭載しています。 10万円クラスで競合する「GEEKOM
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く