タグ

RFSとnetworkに関するyassのブックマーク (8)

  • 1.1. UEKについて

    2010年9月に、オラクル社は、Oracle Linux 5を使用したデプロイメントに推奨されるカーネルとしてOracle Linux用の新しいUnbreakable Enterprise Kernel (UEK)を公開しました。Oracle Linux 5.5以降から、Red Hat互換カーネルまたはUEKのいずれかを使用できるようになりました。Oracle Linux 5.6で、UEKはデフォルト・カーネルになりました。 UEK作成の主な動機は、ExadataおよびExalogicによってエンジニアリングされたシステム用の高性能な最新のLinuxカーネルを提供することでした。カーネルは、CPUの数、メモリーおよびインフィニバンド接続の増加に応じてスケーリングする必要がありました。 オラクル社では、負荷の高いOracleワークロードで集中的にUEKをテストしており、UEKをOracle

    yass
    yass 2013/08/18
    "RSSは各受信キューにCPUをマップ/マルチキュー・ネットワーク・デバイスを含むシステムでRPSを構成する利点なし/マルチキュー・ネットワーク・デバイスを含むシステムで各CPUが各送信キューにマップされるようXPSを構成"
  • Chapter 8. Networking Red Hat Enterprise Linux 6 | Red Hat Customer Portal

    Performance Tuning Guide 1. Overview Expand section "1. Overview" Collapse section "1. Overview" 1.1. How to read this book Expand section "1.1. How to read this book" Collapse section "1.1. How to read this book" 1.1.1. Audience 1.2. Release overview Expand section "1.2. Release overview" Collapse section "1.2. Release overview" 1.2.1. New features in Red Hat Enterprise Linux 6 1.2.2. Horizontal

    Chapter 8. Networking Red Hat Enterprise Linux 6 | Red Hat Customer Portal
  • Re: CentOS5でもRPS/RFSでNICが捗る話 - まいんだーのはてなブログ

    id:studio-m (nekoyaさん)にblogエントリで先を越されたけど自分はちょっと使い所と事情が異なっていそうだったのでそれを書いておきたく!! 0. RPS/RFS の利用 CentOS5 系でのやり方は nekoyaさんのエントリ を見てください。 CentOS6 系でのやり方は kazeburoさんのエントリ を見てください。 自分はkernel 2.6.39で試しましたが問題なく動作しました。 1. RPS/RFSの利用を迫られた背景 nekoya さんは app サーバの所でネットワーク問題が起こっていたようですが、自分の場合 LVS と outbound のトラフィックをさばいているLinuxルータで厳しいことになってきておりました。 この時発生する具体的な症状として LoadAverage が 1 で張り付いて応答が極端に悪くなる というものがあります。 これをど

    Re: CentOS5でもRPS/RFSでNICが捗る話 - まいんだーのはてなブログ
  • Network Scaling について - 教育は参考ブログ

    Linux Kernel Documentation | Scaling in the Linux Networking Stack Google Project Hosting | NetScalingGuide Technology Intel Magazine | ネットワークのパフォーマンス、信頼性、効率を高める インテルR I/O Acceleration Technology (PDF) Slideshare | イマドキなネットワークIO ASADA Takuya 氏 Slideshare | Hardware/Software for Packet Processing OHARA Hisaki 氏 驟雨のカーネル探検隊(只今遭難中w | Receive-Side Scalingについての調査メモ (id:syuu1228:20101219:1292725423) 驟雨のカ

    Network Scaling について - 教育は参考ブログ
  • Kernel/VM Advent Calendar 4日目: Linuxのネットワークスタックのスケーラビリティについて - syuu1228's blog

    【お願い】私はLinuxカーネルもネットワーク周りも素人です。ここに書いてある事は間違えている可能性もあるのでおかしいなと思ったらすかさず突っ込んでください。宜しくお願い致します。 今回は、この記事の内容を全面的に見直して、再度Linuxのネットワークスタックのスケーラビリティについてまとめようと思います。 従来のLinuxネットワークスタック+従来のシングルキューNIC 以下の図は従来のLinuxネットワークスタック+従来のシングルキューNICで、あるプロセス宛のパケットを受信している時の処理の流れを表している。フォワーディングの場合やプロトコルスタック内の処理は割愛した。 プロセスがシステムコールを発行してからスリープするまで プロセスは、システムコールを通してカーネルにパケットを取りに行く。 パケットはソケット毎のバッファに貯まるようになっているが、バッファが空だったらプロセスはパケ

    Kernel/VM Advent Calendar 4日目: Linuxのネットワークスタックのスケーラビリティについて - syuu1228's blog
    yass
    yass 2012/08/10
    " ネットワークスタックから連想記憶にハッシュ値とCPU番号の対応を記録する事により、次に同じ種類のパケットが届いたら正しい割り込み先に届けられるようになる。"
  • CentOS 6.2 で RPS/RFS を使ってネットワークの割り込み処理を複数コアに分散してみた - blog.nomadscafe.jp

    以前(2010年)に「アプリケーションがマルチスレッドでもマルチコアCPUを活かせない件」というエントリにてCPUのコアが増えても割り込み処理が分散されないのでスケールされないと書いたけど、その後Linux KernelにRPS/RFSなる機能が追加され、割り込み処理が分散できるようになり、CentOS 6.2 でも使えるらしいので試してみました。 RPS/RFSについての紹介は VIOPS06で「RPS・RFS等最新Linux Kernel事例」と題してお話してきました http://d.hatena.ne.jp/syuu1228/20110722/1311322653 Linux内核 RPS/RFS功能详细测试分析 http://www.igigo.net/archives/204 が詳しい。2番目のはほぼ読めないけど、性能比較のグラフが分かりやすい。 今回試したサーバは、 OS: C

  • RPS/RFS

    The document discusses Receive Packet Steering (RPS) and Receive Flow Steering (RFS). It shows that enabling both RPS and RFS can increase packets per second (PPS) throughput by up to 35% compared to only using RPS or not using either. It analyzes the CPU load balancing performance with different configurations and explains how RPS and RFS work at the hardware and software levels to distribute net

    RPS/RFS
  • VIOPS06で「RPS・RFS等最新Linux Kernel事例」と題してお話してきました - syuu1228's blog

    はじめに 第一回カーネル/VM探検隊@関西、第二回日Vyattaユーザ会ミーティングで行った発表のダイジェスト版です。 詳しく知りたい人はこちらの内容ではなく、第二回日Vyattaユーザ会ミーティングの動画、資料をみる事をお勧めします。 あと、最新って書いてあるけど割と古い話題です。すんません。 発表資料 従来型のNICとネットワークスタックの組み合わせでは、マルチコア環境においても1つのNICの受信処理は1つのCPUでしか行えません。 これは、NIC上に受信のキューと受信を通知する割り込みが1つしか存在せず、ハードウェアからデバイスドライバまでのレイヤーでは受信処理を並列に行う事が質的に出来ない事が原因でした。 これが原因で、通信量が多い時にパケット処理の負荷が特定のCPUへ偏ってしまい、CPU数を増やしても性能がスケールしないという問題が発生します。 この問題を解決する為に、1つ

    VIOPS06で「RPS・RFS等最新Linux Kernel事例」と題してお話してきました - syuu1228's blog
  • 1