サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
災害への備え
xenospectrum.com
AMD製CPUに10年以上にわたって存在していた深刻な脆弱性「Sinkclose」が発見された。この脆弱性は、2006年以降に製造されたほぼ全てのAMD製プロセッサに影響を与え、システムの非常に奥深くに侵入することを可能とする物であり、場合によってはマシンの修復が不可能となり、マシン自体を廃棄する必要すらある程に深刻な物となっている。 Sinkclose はウイルス対策を回避し、OS の再インストール後も存続する Sinkcloseは、セキュリティ企業IOActiveの研究者Enrique Nissim氏とKrzysztof Okupski氏によって発見された。彼らは、AMDのドキュメントを何度も読み返す中で、この重大な脆弱性を見出した。Nissimは、「脆弱性のあるページを約1000回読んだと思います。そして1001回目に気づいたのです」と述べており、この発見が綿密な、そして粘り強い調査
現在のAIブームの牽引役であり、象徴とも言えるOpenAIが危機的な財務状況に陥っている可能性が浮上した。ChatGPTの開発元として知られるこのAI企業が、2024年に50億ドル(約7,500億円)もの損失を出す可能性があり、破産寸前である事が報じられている。 OpenAIの深刻な財務状況と莫大な運営コスト OpenAIの財務状況は予想以上に厳しい様相を呈している。The Informationの報道によると、同社は今後12か月以内に資金が枯渇する可能性があるという。この背景には、AIモデルのトレーニングと運用に膨大なコストがかかっていることがある。 具体的には、OpenAIは2024年中にAIモデルのトレーニングに70億ドル(約1兆500億円)、従業員1,500人の人件費の支出に15億ドル(約2,250億円)を費やす見込みだ。これらの支出は、競合他社の2024年予測支出をはるかに上回っ
人々をNVIDIA製GPUに縛り付けていた枷の一つが取り払われるかも知れない。英国の企業Spectral Computeが7年の開発期間を経て、CUDAプログラムをAMD GPUでネイティブに実行できるGPGPUツールチェーン「SCALE」を公開した。これにより、開発者はコードの変更なしにCUDAアプリケーションをAMD GPUで動作させることが可能になるのだ。 SCALEがもたらすGPGPU開発の新たな道 SCALEは、CUDAソースコードをAMD GPU向けにネイティブコンパイルする「クリーンルーム実装」として設計された。これまでのHIPIFYやZLUDAなどの既存のソリューションとは異なり、SCALEはコードの変換や移植作業を必要とせず、CUDAプログラムをそのままAMD GPU向けにコンパイルできる。 特筆すべき点として、SCALEはNVIDIAのnvccコンパイラの代替として機能
現在のAMDの成功を見ていると、同社がかつては倒産の危機に瀕していたとは信じられないかも知れない。だが2008年の金融危機以降、AMDは深刻な財政難に陥っていた。そんな同社の窮地を救い、同社が息を吹き返すきっかけとなったのがSonyのゲーム機PlayStation 4の成功にあった事が、AMD現役幹部の回顧によって明らかになった。この意外な救世主の存在は、半導体業界の歴史における重要な転換点を示すものかも知れない。 PlayStation 4がAMDの窮地を救った舞台裏 AMDの現・消費者およびゲームクライアント事業担当シニアディレクターであるRenato Fragale氏が、自身のLinkedInプロフィールで驚くべき事実を明らかにしている。Fragale氏の履歴書には2012年6月から2014年7月まで務めた製品開発シニアエンジニアリングマネージャーの役割について、「SonyのPlay
メーカーが減産を計画していることから、DRAMやNANDフラッシュの価格が上昇する懸念が何度か伝えられたが、結果としてその兆しは見られず、むしろ今後下落する可能性もありそうだ。 DRAM価格は継続的に下がっている TrendForceの最新のレポートによるとDRAMおよびNANDフラッシュのスポット価格は短期的には回復の兆しがほとんど見られないとのことだ。 DRAMに関しては、まず第一の要因として、市場に十分な在庫がある事が挙げられる。消費者向け製品市場も弱く、ハードウェアメーカーはすでに抱えている在庫以上のメモリを必要としないため、スポット市場での購入が減少しているのだ。 2024年6月のDRAMスポット価格 (Credit: TrendForce) 加えて、中国市場において5月末以来密輸取り締まりが強化されたことも要因として挙げられている。中国では、リボールDRAMと呼ばれる、DRAM
AppleがiPad Proに搭載するM4チップは、早速Geekbench 6でのベンチマークテスト結果が流出しており、M3からの大きな性能向上や、上位のM3 Proすらも上回る印象的な結果を示しているが、このパフォーマンス向上の大きな鍵は、TSMCの第2世代3nmプロセス「N3E」への切り替えによるものだけではなく、どうやらCPUアーキテクチャを最新の「ArmV9」に切り替えたことが大きいようだ。 SMEサポートによる全体的なパフォーマンス向上が期待出来る M4チップのGeekbench 6でのベンチマークテストは驚くべきものだった。だが、その内訳は良く見てみると、どうやら一部の新型命令セットアーキテクチャへの対応が大きくスコアを押し上げている面も大きいようだ。 @negativeonehero氏は、M4とM3 MaxのGeekbench 6でのベンチマークテスト結果を細かく比較した表を
ノートPC向けの新たなメモリ規格であるCAMM(Compression Attached Memory Module)は、Dellが2年前に初めてPrecision 7670ワークステーション・ノートPCに導入した独自規格だった。その後この規格はJEDECが2023年後半にSO-DIMMに取って代わる規格として「CAMM2」を確定・発行し、Micronが翌月のCESで初のLPCAMM2モジュールを発表し、これを搭載した製品が後に続くことが待たれていたが、Lenovoがこの新型メモリを搭載したノートパソコンを最初に出荷する事になりそうだ。 近日発売予定のLenovoのAI PC「ThinkPad P1 Gen 7」は、最大64GBのLPDDR5x LPCAMM2メモリに対応している。Lenovoによると、LPCAMM2への変更によるメリットは、従来のDDR5 SODIMMと比較した場合、アク
NVIDIAは2月にNVIDIA GPUを使ってローカルでAIチャットボットを駆動させられる「Chat with RTX」のデモを公開したが、今回これをアップデートすると共に名称を改め、「ChatRTX」アプリとしてRTX GPUユーザー向けにリリースした。 新たな名称、新たな機能既にOpenAIのChatGPTや、GoogleのGeminiと言った強力なチャットボットが存在する中で、ChatRTXの意義について疑問を持たれるかも知れないが、ChatRTXはローカルシステム上で実行するように設計されているため、よりパーソナライズされた経験が期待出来る点にその優位性がある。 ChatRTXを実行するには8GB以上のVRAMを搭載したRTX 30シリーズまたは40シリーズのGPUが必要だ。このアプリは基本的に、ブラウザからアクセスできるローカルのチャットボット・サーバーを作成し、ローカルに保存
このページを最初にブックマークしてみませんか?
『XenoSpectrum』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く