タグ

Linuxとチューニングに関するYudoufuのブックマーク (10)

  • Linux、i/o待ちしているプロセスを見極める - goungoun技術系雑記帳

    vmstat 1 して、ボ〜っと眺めてると $ vmstat 1 procs -----------memory---------- ---swap-- -----io---- -system-- ----cpu---- r b swpd free buff cache si so bi bo in cs us sy id wa 1 1 44 21620 140900 487244 0 0 0 444 270 195 0 0 95 5 procs の b が「割り込みを禁止しているプロセスの数」で これは 0 が望ましいわけですが。 0以外になったとき「誰が犯人だ!」と思うのです。 犯人探し 多分手抜きです。 ps で出力される STAT が D のプロセスが io待ち のプロセスである。 ということで、1秒周期で D のプロセスを出力するスクリプトがこれ。 (while true; do

  • NFSのチューニング - 元RX-7乗りの適当な日々

    何故か遅いNFSをチューニングするべく検証。 # 5MBの書き込みに27秒もかかるのはちょっと。。。 下記の検証結果が、全ての環境であてはまるわけではないため、ご参考程度までに。 検証時の構成 Linux(Xen domainU) ---NFS mount---> Linux(Xen domain0)Xenのバージョンは3.0.2(linux kernelは2.6.16)。 # NICのデバイスも所詮はXenによって仮想化されているので、それほど参考にならないかもなぁ・・・。 実験内容 設定をいじる server: /etc/exports client: autofs(/etc/auto.master) マウント先に、5MBのブロック(1ファイル)を書き込み # マウントポイントの名前は適当(^^; 設定1(syncのみ) server: /home/share client_hostn

    NFSのチューニング - 元RX-7乗りの適当な日々
  • NFS の性能を最適化する

    5. NFS の性能を最適化するクライアントとサーバの両面から、環境を注意深く分析することが、 NFS の性能を最適化する際の最初のステップになります。 前半のセクションでは、一般にクライアントの方で重要になる点を扱います。 後半 (Section 5.3 以降) では、サーバ側の点を議論します。 サーバ・クライアント両側での項目は、 互いに影響を及ぼしあうことがないわけではありませんが、 原因・結果をはっきりさせるためには、この 2 つを分けておくと便利かと思います。 十分なネットワーク容量、高速な NIC、全二重の設定にして衝突を減らす、 スイッチやハブでネットワークスピードを一致させる、 といったようなネットワーク関連の設定を除くと、 クライアントを最適化するために最も重要な設定は、 NFS データ転送のバッファサイズでしょう。 これは mount コマンドの rsize, wsiz

  • ほえほえ LinuxファイルI/Oチューニング

    Linuxは私の使っている範囲ではファイルI/Oがパフォーマンスボトルネックになっていることが多い。で、チューニングの情報を集めてみるのだが、なかなか役立つ情報を入手できない。 決まって全般的なチューニングの進め方について述べ、次にボトルネックの調べ方について述べる。 最後にチューニングパラメータ設定手順のヒントだけを非常に簡単に挙げておわってしまう。いや、どこがボトルネックなのか最初に一発で分かればいいよ? でも全般的なチューニングの進め方でそうしたドキュメントが述べている通り、色々な可能性を繰り返しチューニングしながらつぶしていかなきゃいけないんだよね。 そのためには具体的なチューニングパラメータの設定手順がなきゃできないんだよね。それを教えろよ!それを! ということで、今回はLinuxファイルI/Oチューニングについて調べた。大きなファイルの書き込み(ex. cpコマンド)を行うと、

  • ハードディスクのアクセスが遅いような気がする

    標準インストールのままでLinuxを利用していると,たとえUltraATA66のハードディスクドライブを使用していても,DMA転送さえオンになっていない可能性がある。このような可能性がある場合には,次のように入力してみよう。 $ hdparm -t /dev/hda /dev/hda: setting using_dma to 0 (off) using_dma=0 (off) Timing buffered disk reads:64 MB in 24.20 seconds =2.64 MB/sec 最近のハードディスクを使用しているにも関わらず,上記のような20秒を超える結果が出たら間違いなくハードディスクの性能が生かしきれていない。DMA転送をオンにすれば明らかに転送レートが上がるだろう。次のように指定すればDMA転送を有効にすることが可能だ。

    ハードディスクのアクセスが遅いような気がする
  • Linux Tips - HDDベンチマーク手順+性能測定結果一覧(hdparm,dd,bonnie++)

    Linux Tips – HDDベンチマーク手順+性能測定結果一覧(hdparm,dd,bonnie++) システムのパフォーマンスが思うように上がらない場合、ハードディスクのIO性能がボトルネックになっているケースが多く見られます。 システムの環境構築が完了した後には、ハードディスクのIO性能を必ず測定しておきましょう。ここで紹介するHDDベンチマークを実行して、測定結果の妥当性を評価することによって、ほとんどのケースでディスクIO性能に起因する性能問題を未然に検知することが可能です。 ハードディスクのIO性能を左右する要素システムのパフォーマンスが思うように上がらない場合、ハードディスクのIO性能がボトルネックになっているケースが多く見られます。 以下に主要な項目を挙げるように、ハードディスクのIO性能は様々なシステム構成要素やその設定によって左右されます。システムのインフラ基盤で性能

  • hdparm でハードディスクを高速化する

    hdparm でハードディスクを高速化する 2006.04.08 Linux もしハードディスクが PIOモードで動いていたらDMAモードに変更するだけで、14倍の速度アップ! ■ハードディスクの読み出し速度を測定する まずは、HDDの読み出し速度を測る。 # hdparm -Tt /dev/hda /dev/hda: Timing cached reads: 1856 MB in 2.00 seconds = 929.07 MB/sec Timing buffered disk reads: 10 MB in 3.48 seconds = 2.87 MB/sec -Tスイッチは、キャッシュシステム、つまりメモリ、CPU、バッファキャッシュをテストするという意味。 -tスイッチは、キャッシュ上に無いデータを読み出して、ハードディスクのパフォーマンスをテストする。 読み出し速度が2.87MB

    hdparm でハードディスクを高速化する
  • [LHR]: IDE HDD の設定を変更する (hdparm)

    <Home> → <LHR> → <[LHR]: IDE HDD の設定を変更する (hdparm)> はじめに hdparm は、IDE HDD/driver の設定を確認・変更を行う Linux 専用の Tool です。 通常、多くの Linux distributor では IDE の転送方式を PIO(Programmed Input/Output) モードに設定されています。この PIO モードは CPU が直接 I/O を制御しており、IDE 転送方式では最も安定した方式ではありますが、反面、転送効率は悪く、CPU 使用率が上がり転送速度も頭打ちになります。 hdparm では IDE の転送方式をより高速で効率的な DMA 転送方式(UltraDMA) に変更することが出来ます。しかし、全ての PC で問題が無いとは言い切れませんので、変更には細心の注意が必要です。 使用例

  • TIME_WAIT - 誰も褒めてくれないから自画自賛する日記(2007-07-23)

    ◎ TIME_WAIT MySQLで、TCPステータスがTIME_WAITのコネクションが増殖するため、かなり悩まされている。http://dev.mysql.com/doc/refman/5.1/ja/can-not-connect-to-server.htmlの問題。 TIME_WAITのタイムアウトを短く出来ないか、調べている。 TCPのコネクションの状態は、以下が詳しい http://www.atmarkit.co.jp/fwin2k/win2ktips/234netstat/netstat.html そこで、 http://itpro.nikkeibp.co.jp/article/COLUMN/20051115/224580/ を見ると、sysctlの net.ipv4.tcp_fin_timeout の値(デフォルト値60)がTIME_WAITのタイムアウト時間で、この値を小さ

  • 1