ZenマイクロアーキテクチャCPUとVegaアーキテクチャGPUを融合させたノートPC向けの新CPU(APU)「Ryzen Mobile」をAMDが発表しました。Intelのモバイル向けCPUを圧倒する性能を持つRyzen Mobileの登場により、薄型ノートPC市場へAMDが大きく切り込むことになりそうです。 AMD Launches Ryzen Mobile Processors http://www.tomshardware.com/news/amd-apu-ryzen-mobile-vega,35771.html AMD Mobile Ryzen APUs To Power Acer, HP, Lenovo Ultra-Thin Laptops http://www.tomshardware.com/news/amd-mobile-ryzen-apu-laptops,35772.h
ここでは、NVIDIAの新しいGPUアーキテクチャである「Turing」について解説する。同アーキテクチャは、2018年8月に発表されたQuadro RTX 8000および、GeForce RTX 2080、2080 Ti、2070に採用されている。 Turingアーキテクチャ最大の特徴は、レイトレーシング用のRTコアを内蔵し、ハードウェアによるレイトレーシングが可能になること。NVIDIAの説明によれば、最大10億レイ/秒の速度でレイトレーシングが行えるという。 また、新アーキテクチャとしてNVIDIA GPUが内蔵するStreaming Multi-processor(以下、SM)も改良されている。Voltaアーキテクチャで搭載された行列演算を行うTensorコアも内蔵されており、さらに、整数演算と単精度浮動小数点(Single Precision floating point num
ディー・エヌ・エー(DeNA)が2017年2月10日に開催した技術者向けイベント「DeNA Technology Conference 2017」において、同社AIシステム部 リードエンジニアの瀬尾直利氏が、クラウドを活用した機械学習基盤の構築事例を紹介した。企業のシステム資源が不十分でも、パブリッククラウドを使うことでAI学習基盤を安価、短期間に構築できたという。 DeNAでは現在、次世代事業の柱として、人工知能(AI)、特に深層学習(ディープラーニング)の開発に注力している。そのため、1カ月の間に五つのプロジェクトが立ち上がることもあり、機械学習基盤をいかに素早く構築、運用するかが重要な課題となっているという。 瀬尾氏によれば、深層学習の学習基盤には「潤沢なGPU(グラフィックス処理プロセッサ)」に加えて「隔離した環境」「素早い構築」「運用の容易性」「高い自由度」「ミスが起きにくい環境
地域の病院がオンプレミス環境で大規模言語モデル(LLM)を稼働させ、医療現場の業務で生成AI(人工知能)を利用する――。佐賀県の祐愛会織田病院は2024年4月、これまで利用してきた電子カルテシステムにオプティムが提供する生成AI「OPTiM AI」を組み合わせ、看護師の業務効率を高める実証に乗り出した。織田病院は病床数111床、職員数305人(うち看護師118人)規模の総合病院だ。 織田病院は実証にあたり、米NVIDIAのRTX A2000を搭載したGPU(画像処理半導体)サーバー1台を新たに院内に用意した。LLMの学習や推論に用いるためだ。LLMの稼働状況によって、GPUサーバーの台数やスペックなどを変更する可能性があるという。 オンプレミスでLLMを利用するのはセキュリティーを担保するためだ。電子カルテに記載された個人情報などを病院外に出さないようにする。OPTiM AIのパラメーター
FFXIVベンチ再テスト。GPU全22製品を新版グラフィックスドライバで動かしてみる ライター:宮崎真一 2010年9月30日の発売が待たれる,スクウェア・エニックスの新作MMORPG「FINAL FANTASY XIV」(以下,FFXIV)。近年まれに見るPC版ビッグタイトルだけに,そのPC版公式ベンチマークソフト「FINAL FANTASY XIV OFFICIAL BENCHMARK」(以下,FFXIVベンチ)の注目度も高い。 そんなFFXIVベンチについて4Gamerでは,ハードウェア全13構成のベンチマークテスト結果を「公開記念」としてリリース直後に一度お伝えした。ただ,あれから早1か月半。その間にNVIDIAは,FFXIVベンチ(など)への最適化を謳った「GeForce Driver 258.96」,AMDも,月例アップデートの最新版「ATI Catalyst 10.7」といっ
手のひらサイズのカワイイFRISK型Android端末に、高性能チップを搭載して大幅スペックアップをはかった「MK802 III」(型番:TB-A500)が登場。三月兎2号店とSOUTHTOWN437で販売中だ。 FRISK型端末にも高性能チップRockchip「RK3066」搭載モデルが登場。タブレット並の性能をもった小型のAndroid 4.1端末だ 本製品は昨日お伝えした「iMito MX1」と同様、メインチップにデュアルコアCPU&クアッドコアGPU構成のRockchip「RK3066」を実装。小さいながらもタブレット製品に匹敵する高いパフォーマンス期待できる興味深い製品だ。OSも同じくAndroid 4.1がプリインストールされる。 形状は先端にメス型のHDMI端子を搭載するタイプで、液晶テレビやディスプレーにケーブルを使用して映像を出力する。反対側には入力デバイス接続用のUSB
「GeForce GTX TITAN」登場。500円玉より大きなモンスターGPUの“性能以外”を徹底解説 ライター:米田 聡 GeForce GTX TITANカードのイメージ GeForce GTX TITANは「Built to Power the World's First Gaming Supercomputers」(世界で初めて,ゲーム用スーパーコンピュータのために作られた)GPUだという 日本時間2013年2月19日23時,NVIDIAは,GPUの新製品「GeForce GTX TITAN」を発表した。北米市場における,搭載グラフィックスカードのNVIDIA希望小売価格は999ドル。現行製品であるGeForce GTX 600シリーズの名を冠さない一方で,“GeForce GTX 7xx”といった,次世代GPU的な型番も与えられていない,非常に特殊な製品だが,その名は,米オーク
2022年12月某日、AMDのエグゼクティブ・バイスプレジデントのリック・バーグマン氏(コンピューティング/グラフィックス事業部)と、同社シニア・バイスプレジデントのデビッド・ワン氏(エンジニアリング、Radeonテクノロジー部門)が来日した。 肩書からも分かる通り、両氏は「Radeonシリーズ」を始めとする同社のGPU製品の企画/開発において重要な役割を果たしている。 →AMDが新GPU「Radeon RX 7000シリーズ」を正式発表 米国では12月13日発売(899ドルから) AMDのGPUに関する戦略について、筆者は日本滞在中の両氏から話を伺う機会を得た。この記事では、その模様をお伝えする。
This chart made up of millions of PerformanceTest benchmark results and is updated daily with new graphics card benchmarks. This high end chart contains high performance video cards typically found in premium gaming PCs. Recently introduced AMD video cards (such as the AMD RX 6950 XT) and nVidia graphics cards (such as the nVidia GeForce RTX 3090) using the PCI-Express (or PCI-E) standard are comm
レイトレ&AI対応の新世代GPUは「世界最速」以上の価値を提供できるか GeForce RTX 2080 Ti (GeForce RTX 2080 Ti Founders Edition) GeForce RTX 2080 (GeForce RTX 2080 Founders Edition) Text by 宮崎真一 2018年9月19日22:00,GeForce RTX 20シリーズのレビューが解禁となった。 「Turing」(テューリング)アーキテクチャを採用する新世代GPUは,3Dグラフィックスなどを処理するためのシェーダプロセッサ「CUDA Core」とは別に,リアルタイムレイトレーシング用の「RT Core」,AI推論エンジンアクセラレータとしての「Tensor Core」を搭載するというのが最大の特徴だが,ゲーマーが最も注目しているのは間違いなく,既存のゲームがGeForce
2017年に登場するARMの新CPUコア「Cortex-A73」と新GPUコア「Mali-G71」は,どんな特徴を備えているのか ライター:大原雄介 スマートフォンが,今や主要なゲームプラットフォームの1つであることに異論がある人はいないだろう。そんなスマートフォンの中核となっているのが,英国企業であるARMが開発したCPUコアやGPUコアと,それを採用するSoC(System-on-a-Chip)だ。 日本で販売されているスマートフォンで広く使われているSoCには,ハイエンド系がQualcommのSnapdragonシリーズや,Samsung Electronics(以下,Samsung)のExynosシリーズ(関連記事),ミドルクラスではMediaTekのHelioシリーズやMTxxxxシリーズといったものがある。 そしてこれらのうち,SamsungやMediaTekのSoCは,ARM
By iphonedigital イギリスに拠点を置く半導体メーカーのImagination Technologiesが、中国政府関連ファンド・Canyon Bridgeの子会社であるCBFIに買収されました。買収額は5億5000万ポンド(約830億円)です。 Recommended Cash Acquisition of Imagination Technologies Group PLC by CBFI Investment Limited - Imagination Technologies https://www.imgtec.com/news/press-release/recommended-cash-acquisition-of-imagination-technologies-group-plc-by-cbfi-investment-limited-22-september
Keras のバックエンドに TensorFlow を使う場合、デフォルトでは一つのプロセスが GPU のメモリを全て使ってしまう。 今回は、その挙動を変更して使う分だけ確保させるように改めるやり方を書く。 環境には次のようにしてセットアップした Ubuntu 16.04 LTS を使っている。 blog.amedama.jp サンプルとして動作させるアプリケーションには Keras が提供している MNIST データセットを CNN で認識するものを使う。 まずはこれをダウンロードしておこう。 同時に、セッションをクリアするパッチも追加しておく。 $ wget https://raw.githubusercontent.com/fchollet/keras/master/examples/mnist_cnn.py $ echo 'K.clear_session()' >> mnist_c
今回からは久々に黒歴史編を再開する。テーマはグラフィックチップ(GPU)である。GPUはそもそもベンダーの数が多く、その一方で事業規模が小さい会社が多いこともあって、CPUほど黒歴史製品がない。というよりも、一発出してコケると事業部ごと消えたり、下手をすると会社そのものがなくなったりするからなかなか難しいものがある。そうは言っても、ネタがいろいろあるのは事実なので、このあたりをゆっくりひもといてゆきたいと思う。 初の製品で市場を席巻 3D専用チップVoodooがヒット さてその栄えある(?)第1号の話を何にするかはだいぶ悩んだのだが、いにしえに一世を風靡した「3dfx」のグラフィックチップ「VSA-100」をご紹介したい。当初は3Dfx Interactiveという社名でスタートしたこのメーカーは、独立系のファブレスグラフィックチップベンダーとして1994年に創業された。創業メンバーはSG
「AI開発をリードするということは、ハードウェアインフラへの投資でリードするということ」として、MetaがAIのための投資として行っている、2万4000基以上のGPUを搭載したデータセンタースケールのクラスターの情報を明らかにしました。 Building Meta’s GenAI Infrastructure - Engineering at Meta https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/ Meta reveals details of two new 24k GPU AI clusters - DCD https://www.datacenterdynamics.com/en/news/meta-reveals-details-o
この記事はWebGL Advent Calendar 2015の9日目の記事です。 ご注意 本記事は2015年当時に書いた記事なのですが、GPUがGeForce 8x00シリーズ以降、SIMDからSIMTという並列実行形式に切り替わった頃から状況が大きく変わりました。 以前は本記事でも紹介するインターリーブ形式の頂点データの方が高速だったのですが、現在のGPUでは多くの環境で非インターリーブの方が高速とされています。 AMD GPUにおいても、GCNアーキテクチャ(PS4以降の世代)から(それまでのVLIWから)SIMTに切り替わり、非インターリーブを推奨されているようです。 WebGLは基本的にネイティブ3D APIへのマッピングに過ぎないため、この傾向はおそらくWebGLでも同様と考えられます。 とはいえ、インターリーブ(AoS)や非インターリーブ(SoA)はCGをやる上でいずれ避けて
ディープラーニングの活用による第3次人工知能(AI)ブームの到来、IoTのビジネスでの活用シーンの拡大、そしてそうして生み出されるビッグデータの活用と、2016年のIT/エレクトロニクス業界は、さまざまな技術トレンドが絡み合い、大きなうねりを生み出す年となった。その勢いは2017年も継続して続いていくことが期待される。 また、2016年はこれらIT/IoT技術の進展の根底に半導体の進化があることが示された年になったとも言える。例えばGoogleはディープラーニング用プロセッサ「Tensor Processing Unit(TPU)」を自社で開発していることを明らかにし、専用チップを活用することで、演算能力を消費電力をそれほど引き上げずに高められることを示した。そこで今回は、こうした演算処理を向上させるアクセラレータとして2017年も活用が期待される3つのデバイス、GPU、FPGA、コプロセ
半導体企業のTachyumが、CPU・GPU・TPUの機能を単一のアーキテクチャに統合したチップ「Prodigy」を発表しました。ProdigyのCPUスペックは最大128コア、動作周波数は5.7GHz、16チャネルDDR5メモリ、TDPは950Wとなっており、テクノロジーメディアのWccftechは「非常識なスペック」と評しています。 Tachyum's Prodigy CPU Specs Unveiled: 5nm Universal Processors With Up To 128 Cores, 5.7 GHz Clocks, 16-Channel DDR5-7200 Memory Support & 950W TDP https://wccftech.com/tachyums-prodigy-cpu-specs-unveiled-5nm-universal-processors-
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く