タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。
VIAの子会社Centaurが x86互換プロセッサーを開発 この連載でVIAのCPUロードマップを最後に取り上げたのがいつだったかと思ったら、なんと2009年7月だった。 長らく新製品を「コンシューマー市場には」投入しなかったVIA Technologies、というか同社のCPUデザイン子会社であるCentaur Technologyであるが、同社はいまだに健在である。 一部では中国Zhaoxinに買収されたかのような報道もあったが、実際にはそんなこともなく、引き続き新製品のデザインを継続している。買収騒ぎは、単にVIA Technologies経由でCentaurからZhaoxinにIPを提供したというのが事実だそうだ。またその際にVIA Technologiesの物理設計チームがZhaoxinに協力したとのこと。 ただ、VIA Technologiesそのものは、もうx86というより
久々にAIプロセッサーの話だ。今回はIntel GNA(Gaussian mixture model and Neural network Accelerator)の詳細を説明する。今年4月に開催されたLinley Spring Processor Forum 2022で突如インテルはGNAの詳細を説明したからだ。 GNAそのものはIce Lakeの世代で搭載されたという話を連載525回で触れている。このGNA、最初に発表されたのはICASSP 2017なのだが、実はこの際の発表はポスター(論文をベースに発表するのではなく、要点をまとめた物を1枚のポスターにまとめて張り出す)であって、内容もあまり深い話は掲載されていない。 この時点で発表された内容をもう少し細かく説明すると、2017年時点で利用されているニューラルネットワークの中では、さまざまな特殊処理が利用されるケースが多いとされていた
x86互換のCPUを手がけていたVIAの子会社Centaur Technologyが、x86アーキテクチャを採用する新しいSoCを開発しているという。このSoCはx86アーキテクチャのCPUに、機械学習用の機能を追加しているのが特徴だ(ASCII.jp)。 同社の発表によると、この「機械学習用の機能」は「Ncore」と呼ばれており、「AIコプロセッサ」という位置付けだという。x86アーキテクチャは人工知能(AI)などに使われる演算には不向きであるため、そのための専用ハードウェアを採用することでこの問題を解決するようだ。また、単純に高い性能を目指すのではなく、「コスト対効果の高さ」を目指す方向性だという。 また、このAIコプロセッサについての情報も公開されているが、1サイクルで4096バイトのSIMD処理(並列同時演算)が行える仕組みになっており、ニューラルネットワークに関する処理においては
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く