cpuに関するzakiRのブックマーク (8)

  • ビッグデータを変える!Xeon Phi搭載サーバーの可能性 (3/3)

    Xeon Phiのフル活用でリアルタイムな超解像処理を実現 こうしたXeon Phiの実力をまざまざと見せつけたのが、Express5800/HR120a-1によって処理の大幅な高速化を実現したNECの「超解像処理」の事例だ。超解像処理とは、低解像度の映像を高解像度の映像に変換する処理を指す。おもに最新のハイビジョンTVでの視聴に耐えられるよう過去の映像データを高画質化するのに利用するもので、NECでも放送局向けの高度な超解像処理技術を長年に渡って研究・開発してきたという。 NECの超解像技術では複数のビデオフレームを映像内の動きに従って、位置あわせし、それを重ね合わせることで高画質のフレームを生成する。一般的なビデオコーデックで用いられるピクセルレベルではなく、より細かいサブピクセルレベルで推定を行なうため、高い精度の位置あわせが実現できる。一方で、サブピクセルレベルでの処理を実現するた

    ビッグデータを変える!Xeon Phi搭載サーバーの可能性 (3/3)
    zakiR
    zakiR 2016/09/29
  • ここ最近の自作PC向けCPUの選び方 2015-12 - 新・日々録 by TRASH BOX@Eel

    予定外のパーツ交換に際して、久しぶりに自作PCCPU選定を行った。そこでメモを残しておく。 今、自作PCCPUを現行製品から選ぶとして、性能面に着目するならこんな感じ。 CPUパワーこそが重要 Intel Core-i7、i5 CPUパワーはそこそこでOK。クライアントPCで軽い作業に使う Intel Core-i3、Pentium G、Celeron G CPUパワーはそこそこでOK。クライアントPCで軽い作業に使うが、高解像度で動画も見たいかも AMD APU Aシリーズ CPUパワーは低くてOK。24時間稼動のサーバとして使う Intel Pentium N、Celeron N CPUパワーは低くてOKだが、Pentinu Nよりはほしい。サーバとして使う AMD Athlon、Sempron とにかく安価に x86を捨ててARMのシングルボードコンピュータを使う ――AMD F

    ここ最近の自作PC向けCPUの選び方 2015-12 - 新・日々録 by TRASH BOX@Eel
  • GPUとXeon Phi、どちらが計算処理アクセラレータに最適か? - 実際の実行性能を比較するワークショップを首都大学東京が開催

    青木教授は、チューニングのコストが下がるプロセサが欲しいと述べ、大久保准教授からも、GPUはベクトルプロセサよりチューニングに手間が掛かるという発言があった。また、深沢准教授からは、GPUのチューニングは、その成果が次に生かせないのが問題という指摘があり、新しいチップが出るたびにチューニングをやり直すのは御免というもっともな意見である。また、アクセラレータはデバイス側のメモリが小さくプログラミングの制約になっているという指摘があった。 会場からのOpenCLはどうかという質問に対して、青木教授は、OpenCLはアーキテクチャ依存の記述を使わないと性能が出ず、CUDAより大変。最近は業界でもトーンダウンしていると答えていた。 また、ディレクティブである程度以上にチューニングしようとすると手間が掛かり、CUDAで書いた方が楽という意見が出たが、朴教授は、CUDAの3重カギかっこがバリアとなって

    GPUとXeon Phi、どちらが計算処理アクセラレータに最適か? - 実際の実行性能を比較するワークショップを首都大学東京が開催
  • ビッグデータを変える!Xeon Phi搭載サーバーの可能性 (1/3)

    既存のデータ解析とビッグデータの大きな差である処理速度や解像度。このギャップを埋めるには、既存のサーバーアーキテクチャでは難しい。インテルのXeon Phiを搭載したNECのメニーコアサーバーは果たしてどれだけの実力を持っているのか? 最大520スレッドを1Uで実現するビッグデータサーバー 前回説明したのは、「もっと大容量に、より高速に」という要件を満たすデータセンターの重要性だ。スマートデバイスやソーシャルメディアの普及、クラウドへのデータの集約化、多種多様なデータをビジネスで積極的に活用するビッグデータの台頭など、現在起こっているあらゆるトレンドが、データ量の爆発的な増大を誘発している。さらに、データが膨大になっていくということは、データの容量だけではなく、おのずと処理能力が必要になるということだ。つまり、これからのデータセンターは、今までに比べて桁違いのキャパシティと処理能力を有した

    ビッグデータを変える!Xeon Phi搭載サーバーの可能性 (1/3)
    zakiR
    zakiR 2016/03/19
  • CPU(AVX/AVX2)とGPU(OpenCL/CUDA)のベンチマーク -- 意外と速いCPU

    CPU(AVX/AVX2)とGPU(OpenCL/CUDA)のベンチマーク -- 意外と速いCPU 2014/1/29 GPGPUCPUと比べてどのくらい速いのか 近年、GPUの性能は順調に伸び、OpenCLやCUDAなど、GPGPUを利用しやすい環境が整ってきた。また、CPU統合GPUAMD、Intel双方から提供されている。一方、CPUの方もSandy Bridgeで256bit長のベクトル演算(主に浮動小数点演算)が可能になり、Haswellでさらに強化されて、256bit長の整数演算が可能になった。こうした状況の中、CPUGPUの速度差がどの程度なのか、実際に測定してみた。 ベンチマーキングの環境 OpenCL 1.2をOSが標準でサポートしていること、CPU(Core i7-4850HQ(Crystal Well))、CPU統合GPU(Intel Iris Pro Grap

    zakiR
    zakiR 2015/04/10
  • AMDの次世代コアがSMTだという話で、思うこと。 – ひねもす庵

    x86とCMTは相性が悪かった、ってことなのかなぁ、と。 SMTとCMTでは実行効率を上げる為のポイントが少し違うので。 Bulldozer最大の失敗はデコーダがショボかった、ということだと思う。 そしてこれは多分開発チームにとって「想定外」というか「やっちまった」ことなんだろうなと。 慌ててSteamrollerではデコーダを分離したものの、恐らくこのデコーダも実行モジュールと1:2にするにはショボくても1:1にするのにはリッチ過ぎて(さすがにデコーダを完全に最適に再設計する時間的余裕は無かったと思う)、結果的にBulldozerは当初目指していた方向性をどう頑張っても実現出来なかった、ということではないかと思ってしまうのですよ。 ♯勿論実行モジュールとの比較論で。単純にデコーダだけ比べればそりゃIntelの方がリッチさ。 一方でIntelは昔からHTについては研究していたし、SPARC

  • IBM、カーボンナノチューブトランジスタ1万個を用いたチップ製造に成功 ~商用化に向け大きく前進

  • わたしがAPUをおすすめするワケ - 録画人間の末路 -

    A10-5800Kについて何かブログに書けと言われたら、定番ベンチマークの数字をはかったりゲームが指標として出しているベンチマークで計測したり、というところを中心に書くのが普通だと思います。わたしがそれをやらなかったのは、そっちの方面はもともとやらない方だからです。動画屋としては動画のことだけで攻めてみるのが正当でしょ、ってことでAMD主催APU勉強会でいただいたA10-5800KとTrinityに関しまして好き勝手なこと書いてきましたが、如何でありましょうか。なお、再生やエンコードだけでなく、もう一つ肝心の録画の方ですが、約5日間、1日の2/3はPT3経由で録画しっぱなしという少々過酷な条件に見事耐え、天候のせいで起こったドロップなどを除けばちゃんと映像をHDDに保存してくれました。商業サイトによればA10-5800KはTDP100Wにも関わらずアイドル時には他の低電圧CPUに負けないほ

    わたしがAPUをおすすめするワケ - 録画人間の末路 -
    zakiR
    zakiR 2012/10/18
  • 1