タグ

LinuxとNetworkに関するiqmのブックマーク (12)

  • LinuxのTCP SYNの再送間隔の初期値が3秒から1秒に変更されていた - 元RX-7乗りの適当な日々

    ということに、(今更?)気付いたお話です。 HAを組んだ際のVIPの切り替えテストをやっているときに、高負荷時とかは切り替えに7秒ぴったりかかるケースとかがあって、7秒って何の数字だろうと疑問を持ちました。 OSは、CentOS 6.4(2.6.32-358.23.2.el6.x86_64)です。 TCP SYNの再送間隔が、1...2...4...秒になっている で、tcpdumpを眺めていると以下のようなシーケンスです。 11:50:35.689301 IP client-host.8957 > server-host.http: Flags [S], seq 1616681830, win 14600, options [mss 1460,sackOK,TS val 889880946 ecr 0,nop,wscale 7], length 0 11:50:36.688503 IP

    LinuxのTCP SYNの再送間隔の初期値が3秒から1秒に変更されていた - 元RX-7乗りの適当な日々
    iqm
    iqm 2013/11/29
    「3.2のタイミングで取り込まれ」
  • Linux kernel 3.9 の新機能 SO_REUSEPORT を試してみる - nigakyのブログ

    Linux kernel 3.9 のマージウィンドウでは SO_REUSEPORT というソケットオプションがマージされました。 Merge branch 'soreuseport' · c617f39 · torvalds/linux · GitHub これは同一ポートに複数のリスナー(listen ソケット)が bind できるようになるというもので、Webサーバなど単一のポートに多くのコネクションが来るようなワークロードで、複数プロセスでうまく負荷分散ができるようになるそうです。 (これまでだと一人がaccept()してそれぞれの worker に渡すというようなモデルがありましたが、これでは accept() する部分がボトルネックになってしまいがちでした。) BSDでは元々 SO_REUSEPORT オプションはあったようですが、マルチキャスト通信で使うもののようです。Linux

    Linux kernel 3.9 の新機能 SO_REUSEPORT を試してみる - nigakyのブログ
    iqm
    iqm 2013/05/17
    Nodeみたいなノンブロッキングのと組み合わせると最強に強まる気がする
  • CentOS 6.2 で RPS/RFS を使ってネットワークの割り込み処理を複数コアに分散してみた - blog.nomadscafe.jp

    以前(2010年)に「アプリケーションがマルチスレッドでもマルチコアCPUを活かせない件」というエントリにてCPUのコアが増えても割り込み処理が分散されないのでスケールされないと書いたけど、その後Linux KernelにRPS/RFSなる機能が追加され、割り込み処理が分散できるようになり、CentOS 6.2 でも使えるらしいので試してみました。 RPS/RFSについての紹介は VIOPS06で「RPS・RFS等最新Linux Kernel事例」と題してお話してきました http://d.hatena.ne.jp/syuu1228/20110722/1311322653 Linux内核 RPS/RFS功能详细测试分析 http://www.igigo.net/archives/204 が詳しい。2番目のはほぼ読めないけど、性能比較のグラフが分かりやすい。 今回試したサーバは、 OS: C

  • イマドキなNetwork/IO

    The document discusses techniques for improving network and I/O performance between the network interface card (NIC) and CPU. It describes technologies like TCP offloading, receive side scaling, and Intel I/O acceleration features that distribute processing load away from the CPU to improve throughput and reduce latency. Optimization goals include more efficiently handling interrupts and direct me

    イマドキなNetwork/IO
  • tcpflow が楽しい - lql.be::hateda

    パケットの中身を見るコマンドとして tcpdump が有名だけど、最近 tcpflow っていうコマンドがあることを知った。 tcpflow は tcpdump と比べてパケットの中身をより見やすくしてくれて大変すばらしい感じ。 debian 環境だけど、余裕の aptitude でインストールできる。 # aptitude install tcpflowcentos とかだと rpmfoge レポジトリにあるみたい。 とりあえず使ってみる # tcpflow -cc オプションは、コンソールに内容を表示してログを保存しないようにするオプションでこれつけないで、うっかり起動させるとカレントディレクトリが残念なことになる インターフェイスを指定して起動 # tcpflow -c -i eth0これで eth0 に流れるパケットを見ることができる。 色つけてログを見やすくする # tcpflo

    tcpflow が楽しい - lql.be::hateda
  • Web100.org | Looking for nice websites?

    Google Books The Independent Wereldkaarten en atlassen Wereldkaarten en andere kaartproducten, gedrukt of digitaal, bestel je bij Kaarten en Atlassen, de grootste webshop in geografische producten. Best casino app in India Best casino app in India Best casino in South Africa best casino in South Africa Best casinos in Goa best casinos in Goa Best high roller casinos NZ Best mobile casinos Best nhl

  • Linux上のpingコマンドで経路上のMTUを調べる

    RHEL/CentOS、Xenを中心にメモを残していきます。内容は無保証。適用する場合は、十分確認の上、自己責任で。 指摘、質問、要望をコメントしてもらえると喜びます。 @ITの記事『pingでMTUサイズを調査する』と同じことをLinuxでやる方法。つまりは、Linuxのpingコマンドでフラグメント禁止を指定するにはどうすればいいか、ということ。簡単に言うと、-M hintオプションを使用する。まずは、実行結果をご覧あれ。解る人にはこれだけで解るだろう。$ ping -c 1 -s 1500 192.168.55.7 PING 192.168.55.7 (192.168.55.7) 1500(1528) bytes of data. 1508 bytes from 192.168.55.7 (192.168.55.7): icmp_seq=1 ttl=255 time=4.64 ms

  • vconfig メモ

    はじめに vconfigはIEEE802.1QVLANタギングを利用したVLANインタフェースを作成するためのlinuxコマンドである。 下記の公式サイトでダウンロードできる。 http://www.candelatech.com/~greear/vlan.html インストール 上記の公式サイトからtarボールをダウンロードし、コンパイルする。 そして出来上がった実行ファイルを適当なディレクトリにコピーしてやればよい。 ここで注意するべきことは、linuxカーネルで802.1QのVLANタギングが有効になっているかどうかだ。 有効になっていない場合は、802.1QのVLANタギングを有効にしたlinuxカーネルを使用すればよい。 使用方法 ここでは、インタフェースの作成と削除をする基的なオプションのみを紹介する。 紹介するコマンドが基のみなのは、筆者がvconfigについて深い知識を

    iqm
    iqm 2009/10/22
    VLAN設定
  • [CentOS] ボンディングを構成する

    09/04/16 大幅に修正 複数のネットワークインターフェイスを束ねて冗長性や負荷分散を行う技術を、Linuxではボンディングと呼ばれるドライバにより実現しています。CentOSでボンディングを構成したときのメモ。 CentOS 5.2にてテストしましたがRed Hat系のディストリビューションであれば適用できるかと思われます。 環境 CentOS 5.2 on VMware Server 1.0.6 仮想NIC × 2 ホストマシン搭載物理NIC数: 3 構成してみる ここで、eth0, eth1のようにネットワークデバイスがすでに利用できる状況になっていることが前提となります。 eth0とeth1をボンディングし、ネットワークデバイスbond0を、eth2とeth3をボンディングしネットワークデバイスbond1を生成する場合の手順は以下の通り。 1. /etc/modprobe.d/

    [CentOS] ボンディングを構成する
  • http://blog.dc-d.jp/archives/290.html

  • 第2部第5回 ネットワークをチューニング

    前回のディスク・サブシステムと共に,ネットワークの性能がサーバーの性能を大きく左右することも多い。なぜなら,クライアント・コンピュータから見た場合,サーバーのネットワークは,サーバーの入出力のすべてである場合が多いからである。NICのパフォーマンスに問題があると,サーバーが扱えるデータ量を抑制してしまう。 このボトルネックは,100Mビット/秒のファースト・イーサネットのNICから1Gビット/秒のギガビット・イーサネット対応NICにするなどしてNIC単体の性能を上げることや,後述するリンク・アグリゲーションなどの手法を使うことで解決できる。 最近ではギガビット・イーサネット対応NICは安価になり,現在のIAサーバーでは,ほとんどの機種で標準搭載するようになってきた。Linuxでもドライバが提供されているため,標準でギガビット・イーサネット対応NICを利用できる場合が多い。 そこで,単にNI

    第2部第5回 ネットワークをチューニング
  • 回線遅延シミュレーション | 遊ぶエンジニア

    (大事なことを書くことを忘れていた。回線遅延シミュレーションを安価に行うには、古来、FreeBSD上で動作するDummyNetを使うとか、Linux用だとNISTNetを使うなどがいわれている。いずれも古い話で、NISTNetはカーネル2.6xの上ではコンパイルすらとおらない。そこで) Linuxnetemというパッケージが導入されている。その解説訳を書いておく。なお、F君から「リアルのデバイスじゃないと動かないっす」という情報が入っている。 netemはネットワークエミュレーションの機能をネットワーク上のプロトコルテストなどのために提供される。今のバージョンは遅延とパケットロスと順序変更(パケット再送)が可能である。 もし、2.6以上のディストレイビューション(Fedora, OpenSuse, Gentoo, Debian, Mandriva, Ubuntu)であるならば、netem

    iqm
    iqm 2008/11/07
    tc 使い方 ネットワークエミュレータ
  • 1