※2014/07/02 T2インスタンスタイプとの比較 を追記しました。 ※2014/03/13 他インスタンスタイプとの比較/m3.mediumの検証 を追記しました。 こちらの記事の二番煎じです。 cgroupで、お手軽CPU使用率制限 なるほど。 リソースにLimitかけるとstealを防げるためパフォーマンスも上がるというわけですね。 どのくらい変わるのか実験してみました。 cgroup前準備 sudo yum install libcgroup sudo chkconfig cgconfig on sudo service cgconfig start cgroup設定 上記参考URLとほぼ同じ設定です。 実行時はcpu.cfs_quota_usを変動させて比較してみました。 sudo vi /etc/cgconfig.conf # 以下を追加 group limittest {
先日無償公開されたSoftetherをAmazon EC2のmicroインスタンスへ入れてみた。 しかしCPU性能がしょぼいのか、暗号化処理に結構負荷がかかるのか、CPUを使い果たしてしまう事態に。 さらには仮想環境ということでstealが多発し、輪をかけて使い物にならない。 ※これはEC2/microインスタンスの特性らしい。 http://qiita.com/items/8248ec4654cb809504c9 http://memo-off.blogspot.jp/2011/08/ec2-t1microcpu-steal.html そこで今回はcroup/cgroupsを用いて当該プロセスのCPU使用率を制限、さらにはstealも発生しないようにする。 ※croupは、Redhat系ならRHEL6/CentOS6から利用可能。 まずは、何もしない時のSoftetherプロセス(vpn
http://docs.redhat.com/docs/ja-JP/Red_Hat_Enterprise_Linux/6/html/Resource_Management_Guide/ch-Subsystems_and_Tunable_Parameters.html http://www.kernel.org/doc/Documentation/devices.txt /usr/share/doc/kernel-*/Documentation/cgroups/ redhatのcgroupのdocument見ていてDisk I/Oの帯域制限できたら完璧なのになー、と思っていたんだけど、cgroup/blkio/ 内のファイルを見ていたらたらblkio.throttle.* というそれっぽいファイルを発見。最新のkernelのdocument内にも見つけたので、redhatの日本語docume
Control Groups/Linux Container を利用した KVM のリソース制御と 性能評価に関するレポート 2011/02/28 サービスディベロップメントグループ 船ヶ山 慶 研究背景 現在の仮想化技術にあるハイパーバイザー型の問題点として、ゲスト OS(以後 VM)の SLA(Service Level Agreement)、Oos(Quality of Service)が完全に出来ていないことが挙げられ る。※1 そこで、kernel 2.6.27 より kernel にマージされた Control Groups(以後 cgroups)を利用し、 VM の統合リソース制御が行えるか調査し、その性能評価を行う。 今回の性能評価では、マルチコア CPU のリソース制御、ディスク IO 制御、ネットワーク制 御を調査する。※2 また、今回利用した Linux Conta
Based on kernel version 4.16.1. Page generated on 2018-04-09 11:53 EST. 1 CFS Bandwidth Control 2 ===================== 3 4 [ This document only discusses CPU bandwidth control for SCHED_NORMAL. 5 The SCHED_RT case is covered in Documentation/scheduler/sched-rt-group.txt ] 6 7 CFS bandwidth control is a CONFIG_FAIR_GROUP_SCHED extension which allows the 8 specification of the maximum CPU bandwidth
この記事はhttp://atnd.org/events/10701向けに書かれました。 はじめに サーバ側ではかなり前からcgroupsを使っていましたが、クライアント側では使ったことがなかったので、頑張ってノートPCで使ってみることにしました。12月から使い始めて、1月半ぐらい使い続けてます。 サーバ側では独自スクリプトを書いて設定していましたが、今回は既存のツール(libcgroup)を使っています。とはいえ、libcgroupには資源利用状況を確認する機能がなかったので、独自スクリプト(cgtree)を作りました。もしよかったら使ってみてね! 今回cgroupsでやりたかったことは、 資源を大量に消費するプロセスの制限 バックグラウンドプロセスの制限 などです。限られた資源を無駄に使うプロセスに鉄槌を。 注意 この記事で紹介する設定は、自分の環境に合わせてちまちまとチューニングしてき
Linux 3.3 が出たので入れてみました.とりあえずいつものように cgroup 関係の新機能を. この辺りですかね. CONFIG_CGROUP_MEM_RES_CTLR_KMEM CONFIG_NETPRIO_CGROUPとりあえずメモリコントローラ関連のパラメータとして $ ls /sys/fs/cgroup/memory/*kmem* memory.kmem.tcp.failcnt memory.kmem.tcp.max_usage_in_bytes memory.kmem.tcp.limit_in_bytes memory.kmem.tcp.usage_in_bytesってのが出現してますね.とりあえずカーネルメモリの TCP buffer の制限が出来ると (→ Per-cgroup TCP buffer limits [LWN.net] もう一つ. $ sudo modp
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く