タイトルがそのままですが、GrowthForecastのDocker imageを作りました。 https://registry.hub.docker.com/u/kazeburo/growthforecast/ 使い方は単純に起動するだけなら次のようになります。 $ docker run -p 5125:5125 kazeburo/growthforecast これだと、データが永続化されないので、適当なボリュームをマウントします。 $ docker run -p 5125:5125 -v /host/data:/var/lib/growthforecast kazeburo/growthforecast 起動オプションを変更したい場合は、コマンドを渡すか、Dockerfileを書いてビルドすると良いでしょう。 $ docker run -p 5125:5125 -v /host/dat
先日のJVM Operations Casual Talks、GCやメモリ管理についてまとまった発表や、モニタリングの手法などの話が聞けてよい会でした。 微妙に意識が高まっているところで、メモリ使用量やGCの統計情報を取得して、GrowthForecastでグラフを作ってくれるスクリプトを書きました。それPla、それFluentd系のやつです https://github.com/kazeburo/jstat2gf この元ネタは JVM Operation Casual Talksでのモリスさんの発表にでてきたグラフです。あれを簡単に作れるツールになります。 某JVMのプロセスに対して実行すると、こんな感じのグラフになります。上から「NEW領域」「OLD領域」「Permament領域」「1秒あたりのFull GCの回数」「1秒あたりのFull GCにかかった時間」となっています。 なんかF
はじめに 以前「[CloudWatch]グラフの確認方法と確認できるグラフ一覧(EC2/ELB/RDS)」という記事で、CloudWatchをリソース監視の観点で考えたとき、 CloudWatchの統計は2週間しか記録されません。このため長期的なリソース分析には向きません。月スパン、年スパンでリソース分析を行う場合は、Zabbixなどの高機能な監視ソフトウェアをオススメします。 と書きました。瞬間的なサービスであれば必要無いでしょうが、長期的にサービスを提供し続けるシステムについてリソース状態の確認やシステムの利用頻度を分析するには、日別・曜日別・時間帯別などの詳細な負荷推移の分析が欠かせません。それにはやはり2週間は短すぎます。 そこで、CloudWatchのデータをロングスパンなグラフに変換する手段として、GrowthForecastというツールを使ってみました。 GrowthFore
Focuslight: Lightning Fast Graphing/Visualization There are many tools to store data and visualize metrics. And now, I released a new one. Focuslight. https://github.com/tagomoris/focuslight If you always lose several minutes before posting metrics and/or drawing graphs for your visualization tools, focuslight may change your life. On focuslight, you just POST values over HTTP on URL which you wan
GrowthForecastのバージョン0.80をリリースしました。 インストールはCPANもしくはgithubから https://metacpan.org/release/GrowthForecast https://github.com/kazeburo/GrowthForecast 主な変更点 変更点は以下の通りです。 bootstrap 3 にアップグレーとして見た目が変わった (kazeburo) グラフリストの折り畳み (kazeburo, dalyfolowerさん) mysqlを使った場合のdefault valueの扱い (oranieさん,sonotsさん) exportへのstepとcf (統合巻数) オプションの追加 (anoworlさん) 参考 -> http://qiita.com/anoworl/items/63a2d8d33cab077e729b unix
この記事はおひとりさま Monitoring Advent Calendar 2013の1日目です! 「あの値とその値の変化を一週間だけ取ってグラフで見たい!」 そんなことってありませんか?自分はまれによくあります。 そんな貴方におすすめなのが、この記事で紹介する常設GrwothForecastとgrouthforecast-workerの組み合わせです。慣れると、必要になってから5分もあれば値の取得が始められるようになります。 GrowthForecastのインストール GrowthForecast GrowthForecastは単体でWebサーバとして起動して、放り込んだ値をうまいことグラフ化してくれるソフトウェアです。インストールの方法は、公式サイトにCentOSやUbuntuでそのまま使えるコマンドで書いてあります。 デフォルトではTCP5125番ポートで起動するので、ファイアウォ
ちょいちょい GrowthForecast のインストールが perl だから難しいとかいってる人をみかけるけれど、Dockerfile が用意してあれば、セットアップは簡単になるんじゃないだろうか。 audreyt が Dockerfile で配布する方法で irc logger を配布していたし、それを真似してみるのもアリかもしれない。そんな風におもって僕もやってみることにした。 Docker をつかうと、アプリをふくんだイメージを簡単に配布することが可能となる。インストール手順をごちゃごちゃとブログに書いたりするのもいいけれど、Dockerfile を共有したほうがいいのではないだろうか。再現可能だし。chef でもなんでもいいけど、docker はインストールが簡単なのがいいし、覚えることがすくなくていい。 いらなくなったら、イメージごとポイすればいいだけで、簡単だしね。 さて本題
最近 Ansible ブームな私としては Docker で Growthforecast をインストールする方法 を見ると、Ansible でもやりたくなってしまうのです。ということで、サクッと GrowthForecast をインストールする Playbook をちゃちゃっと書いてみました。 まだブラッシュアップの余地はありますし、CentOS 向けのところしか書いてない。 Debian / Ubuntu とか他の Linux Distribution 用のところは誰かよろしく。Gentoo だとオレオレ ebuild 書けばこんなのいらない? 今回の Playbook は AWX のインストーラーを参考にしたので Ansible AWX を試す その2 #ansible が参考になります。 Playbook は GitHub ( https://github.com/yteraoka/
https://metacpan.org/release/GrowthForecast-Aggregator-Declare use GrowthForecast::Aggregator::Declare; my @queries = gf { section member => sub { # post to member/count db( name => 'count', description => 'The number of members', query => 'SELECT COUNT(*) FROM member', ); }; section entry => sub { # post to entry/count, entry/count_unique db_multi( names => ['count', 'count_unique'], descriptions
「数字を出力するコマンドを定期的に実行して、秒間の変化量を memcachedプロトコルで取れるサーバを書いた」で紹介した、derived。memcahcedプロトコルで外からアクセスするだけじゃなくて、GrowthForecastに直接ポストできたら便利だなと思ったので、構成見直してプラグインでデータの出力方法をカスタマイズできるようにした。 CPAN: https://metacpan.org/release/App-derived github: https://github.com/kazeburo/App-derived 今まで $ derived -i 10 --port 12306 cmdsfile だったのが、 $ derived -i 10 -MMemcahced,port=12306 cmdsfile と -M でプラグインを読み込むようになります。何もプラグインを指定
はじめに Fluentdは、ログを収集し格納するためのログ収集基盤ソフトウェアです。Fluentdにインプットされた、すべてのログをJSONに変換し、アウトプットします。インプットとアウトプットはモジュール化されており、モジュールを追加することでインプット元とアウトプット先を追加できるようになっています。 Fluentdは急速に知名度を高め、多くのWebサービス会社で実際に使用されるようになりました。従来のログが抱えていた問題も、Fluentdが適切な解決策となっていると認知され、かつ簡単に導入・スモールスタートできるミドルウェアであったことが大きかったと思います。 本稿では、Fluentdの簡単な仕組みと導入方法、シンプルな動作事例について紹介します。 対象読者 システム管理者 データサイエンティスト 必要な環境 UNIX系OS Ruby 1.9 ログを出力する理由 システム運用を始める
ここ数年のデータ解析の重要性の高まりから、ログに関するソリューションが方々で活発に探求されている昨今でございます。ウェブサーバーの単純なアクセスログをそのまま保存するではなく追加情報を添加してみたり、あるいはアプリケーションから直接ログを吐いてそれらをデータウェアに投げ込んで・・・というのも当然のように行うようになりましたね。 しかしあまり自由度のない access_log の combined フォーマット。さてどうしたもんか・・・ ここで id:stanaka の登場です。 Labeled Tab Separated Valueというのは、はてなで使っているログフォーマットのことで、広く使われているTSV(Tab Separated Value)フォーマットにラベルを付けて扱い易くしたものです。はてなでは、もう3年以上、このフォーマットでログを残していて、one-linerからflue
Ubuntu12.04LTS にて、cpanmについては入っているものとして。 growthforecastがCPANに登録されたそうで、cpanmで入ります。 Ubuntuは、公式にあるようにapt-getで関連ツールをインストールして、cpanmで完了。(ちょっと時間かかります) $ sudo apt-get build-dep rrdtool $ sudo cpanm install GrowthForecastさて、growthforecastを使ってグラフ化しようにも、会社じゃないと試そうにも以下の問題が。。。 そんなにアクセスのあるWebサーバを持っていない マシンリソースもあんまり使ってない そもそも他のブログと同じようなことを書いても仕方ない といった問題がありまして、何をグラフ化しようかなーと。 Pythonの勉強がてら、どこかのWebAPIからデータを取ってそれを使って
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く