タグ

CPUに関するeigo_sのブックマーク (23)

  • AWS 新CPU Graviton4 の性能検証 | 外道父の匠

    公式の説明による大きな変化点は、 Graviton 2 → 3 の時は、性能25%UP で費用6%UP、Network/EBS 帯域幅が向上、 Graviton 3 → 4 では、性能30%UP で費用10%UP、最大スペックが3倍、 に加えて、細かいところでも色々少しずつ向上しているという感じです。 特にスペック3倍は、データベース用途におけるスケールアップが強力で、一時的な緊急負荷対策としても強いし、クラスタデータを3分割するくらいなら1クラスタで分割なしで貫けばいいじゃない、など安定と選択の幅が広がるのは間違いないでしょう。 ベンチマーク それでは、疑り深い外道父さんによる、いつもの Phoronix による検証です。 今回は R系 という点と、あまり古いのと混ぜると共通成功テスト数が減ってしまうことから、R6g, R7g, R8g での比較としています。C7i 以前なども知りたけれ

    AWS 新CPU Graviton4 の性能検証 | 外道父の匠
    eigo_s
    eigo_s 2024/07/16
  • [速報]AWS、ARMベースの最新独自プロセッサ「Graviton4」発表、Graviton3より30%高速、より高効率に。AWS re:Invent 2023

    Amazon Web Services(AWS)は、ラスベガスで開催中のイベント「AWS re:Invent 2023」の基調講演で、同社が独自に開発しているARMベースの最新プロセッサ「AWS Graviton4」を発表しました。 Graviton4は2021年に発表されたGraviton3と比較してコア数が50%、メモリ帯域が75%増加し、演算性能が30%向上しており、より高性能かつ電力利用効率が高いプロセッサとなっています。 また、全ての物理ハードウェアインタフェースを完全に暗号化することで、より高いセキュリティを実現しました。 AWS CEOのAdam Selipsky氏は、Gravtion4はGraviton 3と比較してデータベース処理で40%高速になり、Javaアプリケーションでは45%高速になったと説明。 Graviton4はメモリ最適化されたAmazon EC2 R8gイ

    [速報]AWS、ARMベースの最新独自プロセッサ「Graviton4」発表、Graviton3より30%高速、より高効率に。AWS re:Invent 2023
  • 続・AWS ECS Fargate のCPU性能と特徴 2023年版 | 外道父の匠

    2年半近く前に書いた AWS ECS Fargate のCPU性能と特徴 | 外道父の匠 の続編になります。 そんなに楽しくはないけど、知っておいて損はない、くらいの調査と考察になります:-) 前口上 ちょうど1年前に FARGATE のリソース天井が上がりました。今回は、ほぼそれを区切りにした結果になっていると思います。 AWS Fargate でコンピューティングとメモリのリソース構成が 4 倍に増加 vCPU 条件と Availability Zone を変え、3タスクずつ起動し、出現したCPUモデルをメモっていきました。ついでに軽量ベンチマークとして前回同様 OpenSSL speed をカマしておきました。 関係ないけどコンテナイメージは amazonlinux:2 です。では結果をどうぞ。 出現CPUモデル CPUアーキテクチャを選べるので、それぞれについて。 ECS Farg

    続・AWS ECS Fargate のCPU性能と特徴 2023年版 | 外道父の匠
  • 10年前に「ムーアの法則が終わる」と言われた頃から現在までのサーバ進化の技術的模索を振り返る(前編)

    先々月、あるサーバベンダ主催のイベントで、最近のサーバにおける技術トレンドを紹介して欲しいという依頼を受けて、過去10年のサーバ技術のトレンドを振り返るという講演を行いました。 ほぼ10年前は「ムーアの法則が終わる」と格的に言われ始めた頃で、そこから実はさまざまな技術、例えばストレージクラスメモリやFPGAやメモリドリブンコンピュータなどのプロセッサの回路の微細化以外の技術によるサーバの性能向上技術が注目され、その一部は市場に投入され定着しつつある一方で、商業的な成功を収められなかった多くの技術もありました。 それらをざっと振り返る内容にしたところ、現在のサーバ技術の方向性がなんとなく見えてきたのではないかと思うので、ここで記事として紹介します。 記事は前編と後編に分かれています。いまお読みの記事は前編です。 10年前、「ムーアの法則」が終わると言われ始めた 今から約10年ほど前、201

    10年前に「ムーアの法則が終わる」と言われた頃から現在までのサーバ進化の技術的模索を振り返る(前編)
  • Linux でのハングタスクについて - 赤帽エンジニアブログ

    Red Hat でコンサルタントをしている菅原と申します。 この記事では、意外とあまり説明されていないような気がする Linux システムで発生するハングタスクについて少し説明したいと思います。現場のシステムでもハングタスク検知の設定がされていることが多いと思いますが、ハングタスクとは何なのかを正しくご理解いただくことで、ハングタスク検知を行う目的が明確になること、また、実際の障害事例もご紹介することで、通常あまりハングタスクと関連づけて考えないような設定でもハングタスク発生につながる場合があることを知っていただき、少しでもシステム管理や障害の理解、障害対応などのお役に立てれば幸いです。 なお、この記事では RHEL のみを対象に書いていますが、他の Linux ディストリビューションにも適用される内容と思います。 ハングタスク (hung tasks) とは ハングタスクとは読んで字のご

    Linux でのハングタスクについて - 赤帽エンジニアブログ
  • AWS、独自開発したARMプロセッサ「Graviton 2」ベースのAmazon RDS MySQL/PostgreSQLをプレビュー開始。ARMはXeonを上回れるのか?

    AWS、独自開発したARMプロセッサ「Graviton 2」ベースのAmazon RDS MySQL/PostgreSQLをプレビュー開始。ARMはXeonを上回れるのか? Amazon Web Services(AWS)は、MySQLやPostgreSQLなどのリレーショナルデータベースをマネージドサービスで提供するAmazon RDSにおいて、Graviton2プロセッサのインスタンスをベースにしたサービスをプレビューとして開始したと発表しました。 New #AWSLaunches! Amazon Personalize enhances Recommendation Filters with filtering on item metadata Announcing Preview for Amazon RDS M6g & R6g instance types, powered by

    AWS、独自開発したARMプロセッサ「Graviton 2」ベースのAmazon RDS MySQL/PostgreSQLをプレビュー開始。ARMはXeonを上回れるのか?
  • AMDはなぜ資金面で圧倒的に勝ると思われるIntelを凌駕するCPUを開発できるのでしょうか?

    回答 (12件中の1件目) 当のことを言うと、今はIntelこそ資金に欠けてい方なのかもしれません。 当然、IntelとAMDの二社だけを比べるのなら、Intelの方が圧倒的に強いでしょうけど、今の半導体業界はもうそういう簡単なものではなくなっています。 まぁ、今回の第三世代Ryzenで見事なリベンジマッチを果たしたAMDの勝因を一言で言うのなら、スマホ市場の急速発展の追い風に乗ったから、ということなのでしょう。 さて、デスクトップ向けのCPUしか作ってないAMDはスマホ市場とどういった関係があるのでしょう、と思うかもしれませんが、これこそ今の半導体業界の不思議なところです。 ...

    AMDはなぜ資金面で圧倒的に勝ると思われるIntelを凌駕するCPUを開発できるのでしょうか?
  • perfから読み解くプロセッサトレースの仕組み (perf + Intel PT/ARM CoreSight) - Qiita

    諸事情でperfのソースコードを読んだのでせっかくなので簡単に解説。 今回はperfの中でもイベントの記録を担当するperf recordコマンドの処理を見ていく。特に近年はCPUがトレース機構を持っておりperfもその恩恵に預かっているため、記事ではperf recordの中でもCPUのプロセッサトレース機構との連携部分に注目したい。 音を言えば、perfよりIntel Processor Trace(Intel PT)やARM CoreSightといったプロセッサトレース自体に興味があるのだが、これらはLinux上ではperfイベントとして実装されているためperfコマンドの実装を皮切りに解析する腹づもりだ。 1. Perf アーキテクチャ 元々perfはPerformance counters for Linux (PCL)という名前の前身が存在しており、CPUの提供するパフォー

    perfから読み解くプロセッサトレースの仕組み (perf + Intel PT/ARM CoreSight) - Qiita
  • コンピューティングの基礎と高速化入門

    コンピューティングの基礎と処理の高速化入門 #1 at connpass で発表したスライドです。 https://liberal-arts-for-tech.connpass.com/event/123273/

    コンピューティングの基礎と高速化入門
  • インテル、Google、マイクロソフトらが高速インターコネクトの新規格「Compute Express Link」(CXL)を発表。GPUやFPGAなどを活用するための業界標準へ

    インテル、Google、マイクロソフトらが高速インターコネクトの新規格「Compute Express Link」(CXL)を発表。GPUFPGAなどを活用するための業界標準へ インテルやGoogle、マイクロソフト、シスコ、HPE、Dell EMC、アリババ、ファーウェイらは、CPUとメモリやGPUFPGAなどを高速に接続するインターコネクトのオープンな新しい業界標準規格「Compute Express Link」(CXL)を発表。あわせてCXLを推進するためのコンソーシアムを立ち上げました。 コンピュータで画像処理や機械学習などさまざまな種類のワークロードが実行されるようになるにつれて、すべての演算処理をCPUで行うのではなく、ワークロードの種類に合わせた得意分野を持つGPUFPGAなどに演算を任せるケースが今後さらに増加していくと考えられています。 CXLは、こうしたGPUやF

    インテル、Google、マイクロソフトらが高速インターコネクトの新規格「Compute Express Link」(CXL)を発表。GPUやFPGAなどを活用するための業界標準へ
  • CPUに潜むSpectreとMeltdownの脆弱性:2019年の展望

    SpectreとMeltdownの脆弱性に始まり、SpectreとMeltdownの脆弱性に終わった2018年。さて、2019年はどうなるでしょう? 2つのCPU脆弱性「Meltdown」「Spectre」が初めて発表されてから約1年。第35回Chaos Communication Congress(英語)で、オーストリアのグラーツ工科大学(Graz University of Technology)の研究チームが、これら脆弱性の現状を報告しました。少々ネタばらしをすると、これらの脆弱性に関しては、昨年のうちに多くのことが明らかになったのでした。 Meltdown、Spectreとは? まず、MeltdownとSpectreとは何か、その違いは何かを復習しましょう。 現代のCPUは、順序にとらわれずに命令を実行(アウトオブオーダー実行)できます。その結果生じたのが、Meltdownという脆

    CPUに潜むSpectreとMeltdownの脆弱性:2019年の展望
  • あなたのネットワークスタック正しく設定されていますか? - Qiita

    はじめに Linux Advent Calendar 10 日目の記事です。 運用や研究開発の現場では、ソフトウェアの実験、または機器のテストや選定などのために、ベンチマークツールや自前のアプリケーションでコンピュータ間の通信速度を計測する機会が多々あると思います。一方で10Gbpsや40Gbpsといった昨今の高速ネットワークにおいては、これらの計測結果はアプリケーションの通信API部分の実装、カーネルパラメータまたはコンパイルオプションによって大きく変わってしまうため、正確な計測を行うためにはこれらを正しく設定/理解する必要があります。この記事では、ネットワーク周りのカーネルとアプリケーションの動作の概要と、その中の重要なポイントを理解することを目的にします。 ネットワークプログラミングのおさらい まず最初に、TCPを使う今時のサーバプログラムがどのようにできているか簡単におさらいします

    あなたのネットワークスタック正しく設定されていますか? - Qiita
  • メモリ容量を最大8倍に拡張してくれるNVMe SSD。Western Digital「Ultrastar Memory Extension Drive」発表

    メモリ容量を最大8倍に拡張してくれるNVMe SSD。Western Digital「Ultrastar Memory Extension Drive」発表 LinuxWindowsなどのモダンなOSには一般に「仮想記憶」と呼ばれる機能が備わっています。仮想記憶には、物理メモリに保持されている内容を一時的にストレージへ待避させ、そこへ別の内容を書き込める仕組みがあります。この仕組みにより、OSは物理メモリの容量を超えてメモリを割り当てることができるようになります。 Western Digitalは11月12日、この仮想記憶のような仕組みを用いてメモリ容量を最大8倍にまで拡大できる「Ultrastar DC ME200 Memory Extension Drive」(以下、Memory Drive)を発表しました。 Memory Driveの物理的な構成は、NVMeインターフェイスを備えた

    メモリ容量を最大8倍に拡張してくれるNVMe SSD。Western Digital「Ultrastar Memory Extension Drive」発表
  • 仮想 I/O 高速化手法まとめ - かーねるさんとか

    仮想 I/O の高速化手法についてまとめました。特にネットワーク I/O の高速化について調べました。 デバイスの仮想化 仮想マシンが利用するネットワークカードは多くの場合、QEMU のようなエミュレータによってエミュレーションされており、物理的なネットワークカードとのやりとりはホスト上で動作する仮想スイッチを介して行われます。*1以下に構成を図示します。 エミュレートされるデバイスは Intel の 1Gbps NIC 等、実際に存在するネットワークカードと、virtio-net のような、物理的なハードウェアが存在しないインターフェースがあります。 仮想化技術は大きく「完全仮想化」と「準仮想化」に分類されます。*2 完全仮想化によってゲストへ提供される環境は、ゲストからは、現実に存在する物理ハードウェアと全く同じように見えるようエミュレートされます。結果として、ゲスト OS は、仮想化

    仮想 I/O 高速化手法まとめ - かーねるさんとか
  • Serving 100 Gbps from an Open Connect Appliance

    In the summer of 2015, the Netflix Open Connect CDN team decided to take on an ambitious project. The goal was to leverage the new 100GbE network interface technology just coming to market in order to be able to serve at 100 Gbps from a single FreeBSD-based Open Connect Appliance (OCA) using NVM Express (NVMe)-based storage. At the time, the bulk of our flash storage-based appliances were close to

    Serving 100 Gbps from an Open Connect Appliance
  • CPU使用率は間違っている | Yakst

    Netflixのパフォーマンスエンジニアである筆者からの、topコマンドなどで表示されるCPU使用率(%CPU)は、いまや当の使用率を表しておらず、チューニングなどのための指標として使えないという指摘。なぜそうなってしまったのか、何を見れば当のCPU使用率がわかるのかをわかりやすく解説した記事。 私たちみんながCPU使用率として使っている指標は非常に誤解を招くもので、この状況は毎年悪化しています。CPU使用率とは何でしょうか?プロセッサーがどのくらい忙しいか?違います。CPU使用率が表しているのはそれではありません。私が話しているのは、あちこちで、あらゆる人たちに、あらゆる監視製品で、あるいはtop(1)でも使われている、"%CPU"という指標のことです。 あなたの考えているであろうCPU使用率90% : 実際 : "stalled"(訳注 : 以下ストールと言う)とは、プロセッサーが

    CPU使用率は間違っている | Yakst
  • いま起きているムーアの法則の限界は、微細化よりも電力と経済性の限界~ポスト・ムーア法則時代のコンピューティング(前編)。QCon Tokyo 2016

    今日のお話は、ムーアの法則が限界に来ているなかで、ソフトウェアの技術者の方々がなにをすべきか、ということを中心にしていこうと思います。 ムーアの法則は終焉するのか? これまでに何度もムーアの法則限界説が流れていて、そのたびに半導体業界はそれをなんとか乗り越えてきたので、ここでまたムーアの法則が限界だという話をすると、オオカミ少年だと言われてしまうかもしれません。 ただ今回はかなり深刻な状況になっています。 その前にまず、ムーアの法則とは何かということを説明しておくと、インテルの共同創業者のゴードン・ムーアという人が50年前に、1つのチップ上の半導体の数、つまりトランジスタの数は毎年倍増すると予測したものです。倍増するペースはそのあと18か月から2年に修正されました。 トランジスタの数はたしかにこの通りに増えていったのですが、他方で半導体業界は総力を挙げてこのムーアの法則を満足させるために技

    いま起きているムーアの法則の限界は、微細化よりも電力と経済性の限界~ポスト・ムーア法則時代のコンピューティング(前編)。QCon Tokyo 2016
  • CPUに関する話 | GREE Engineering

    こんにちわ。せじまです。スティック型PCの購入は、 Core M版が出るまで見送ろうと思っている今日このごろです。 弊社では「Mini Tech Talk」という社内勉強会を隔週で開催しているのですが、それとは別に、「Infra Tech Talk」という社内勉強会を、半年くらい前から毎月開催しています。わたしはそこでほぼ毎月、45-60分くらいのスライドを作って話をしています。今までどういう話をしてきたかといいますと、TCPに関する話を二回、SSDに関する話を二回しました。(InnoDBに関する話だと軽く5-6時間くらいできるんですが、いささかマニアックなので、もっと幅広い人を対象に話をしています) 今までの話はちょっと社内向けの内容だったんですが、前回開催された Infra Tech Talk では、社外の方にも幅広く読んでいただける話ができたと思いましたので、その資料を slides

    CPUに関する話 | GREE Engineering
  • Linuxでロードバランサやキャッシュサーバをマルチコアスケールさせるためのカーネルチューニング - ゆううきブログ

    記事の公開後の2016年7月にはてなにおけるチューニング事例を紹介した。 はてなにおけるLinuxネットワークスタックパフォーマンス改善 / Linux network performance improvement at hatena - Speaker Deck HAProxy や nginx などのソフトウェアロードバランサやリバースプロキシ、memcached などの KVS のような高パケットレートになりやすいネットワークアプリケーションにおいて、単一の CPU コアに負荷が偏り、マルチコアスケールしないことがあります。 今回は、このようなネットワークアプリケーションにおいて CPU 負荷がマルチコアスケールしない理由と、マルチコアスケールさせるための Linux カーネルのネットワークスタックのチューニング手法として RFS (Receive Flow Steering) を

    Linuxでロードバランサやキャッシュサーバをマルチコアスケールさせるためのカーネルチューニング - ゆううきブログ
  • CPUやメモリなどのシステム性能を比較するベンチマークツール | OSDN Magazine

    このうちCPUの性能を単純に測定できるのがDhrystoneおよびWhetstoneテストで、それぞれ整数演算および浮動小数点演算の性能を測定するものとなっている。また、そのほかのベンチマークテストについては一般的なアプリケーションにおける処理を模したものになっており、システム全体の処理能力を数値化するものになっている。 UnixBenchのインストールと実行 UnixBenchのバイナリは公開されていないため、テストを実行するには自分でコンパイルを行う必要がある。コンパイルにはmakeやGCCなどのコンパイルビルドツールに加え、PerlのTime::HiResモジュールが必要だ。このモジュールはRed Hat Enterprise Linux(RHEL)互換環境の場合、「perl-Time-HiRes」パッケージに含まれているので、これをインストールすれば良い。 # yum instal

    CPUやメモリなどのシステム性能を比較するベンチマークツール | OSDN Magazine