タグ

ブックマーク / keyamb.hatenablog.com (6)

  • Ansible メモ - シェル環境変数の参照 - weblog of key_amb

    playbook 上で例えば $HOME のような値を参照する場合、少なくとも2通りのやり方があります。 (1) lookup plugin を使う Frequently Asked Questions — Ansible Documentation playbook に次のように書きます。 vars: local_home: "{{ lookup('env', 'HOME') }}" これで、以降 "{{ local_home }}" で参照できます。 (2) Facts を使う Facts については次の公式ドキュメントに記述があります。 Variables — Ansible Documentation 環境変数は "ansible_env" というハッシュの中に入っており、$HOME は次のようにして取り出せます。 {{ ansible_env.HOME }} 以上です。

    Ansible メモ - シェル環境変数の参照 - weblog of key_amb
    peketamin
    peketamin 2018/07/20
  • "shove" というシェルスクリプト用のテストツールを作った - weblog of key_amb

    CONTENTS: "shove" とは Motivation こんなツールにしたい 使い方について 中で何をやっているのか おわりに "shove" とは こちらです。 github.com 動作イメージとしては README.md にも貼っているスクリーンショットがわかりやすいと思うので、こちらにも貼ります。 成功時: 失敗時: 上のようにテストスクリプトを引数に与えて shove コマンドを実行すると、テストを実行して結果を出力してくれます。 Perl Monger のみなさんは「proveっぽい」と思っていただけたでしょうか。 そうです。名前の "shove" は "shell" + "prove" を縮めたものです。 bash だけでなく、ksh, dash, zsh など POSIX を満たしているシェルに対応できるように作りました。 $SHELL 変数の値と異なるシェルでテス

    "shove" というシェルスクリプト用のテストツールを作った - weblog of key_amb
    peketamin
    peketamin 2016/04/25
  • 時系列DBって結局どれがいいんだっけ #TSDB - weblog of key_amb

    ※4/6 その後調べた情報などを記事末尾に追記 前提となるニーズ サーバの負荷情報とか、アクセス状況のような KPI を取得・保存し、可視化(参照してグラフ化)したい。 リアルタイム性が要求される。5分以上前のデータしか見れませんみたいなのはお呼びでない。 古いデータはそんなに精度は気にしないけど、ロングスパンで俯瞰して見れたら便利。 最近はビッグデータ環境の時系列データ解析もビジネスではけっこうニーズがありそうだけど、そっちはもう少し要求が多そう。 ここでは考えないことにする。 選択肢になりそうなもの 古きよき RRDtool Elasticsearch + Kibana Graphite + Grafana InfluxDB + Grafana 等 Zabbix 他に、現実的には SaaS に任せるという手段もあるだろうけど、そう言うと話が終わってしまいそうなので、ここでは考えないこと

    時系列DBって結局どれがいいんだっけ #TSDB - weblog of key_amb
    peketamin
    peketamin 2016/04/06
  • Consul クラスタ上で動作する S3 非依存の pull 型デプロイツール "fireap" を作った - weblog of key_amb

    github.com fireap = fire + reap です。 Consul Event を発火(fire)して、受信側でそれを収穫(reap)する、という意で。 読み方は「ファイリープ」で良いかと思ってます。 どんなツール? GitHub に上げた README.md より、かいつまんで日語に変換しつつ説明します。 ノード数 N に対して O(log N) で動作するデプロイツールです。 が、実際にはデプロイに限らず任意のコマンドを実行できるので、README の中ではデプロイツールとは書いておらず、「高速タスクランナー」としています。 fujiwara/stretcher や sorah/mamiya は O(1) なので、それらが使える環境(S3 的な I/O やトラフィックの上限が非常に高いストレージがある)でデプロイを速くしたいという場合は、それらを使えばよろしいかと。

    Consul クラスタ上で動作する S3 非依存の pull 型デプロイツール "fireap" を作った - weblog of key_amb
    peketamin
    peketamin 2016/03/18
  • CoreOS Meetup Tokyo #1 に行ってきた #coreosjp - weblog of key_amb

    4/9(木) に開催された CoreOS Meetup Tokyo #1 に行ってきました。 3時間の中でイントロ除いて発表が7つあり、かなり内容が濃かったです。 一番面白かったのは @kawamuray さんの Docker に CRIU を実装した発表でした。 CRIU はコンテナ界隈でも注目度が高い技術のようで、近い将来、この時デモで見たような機能が誰でも使えるようになるかと思うととても楽しみです。 また、Wantedlypixiv で実際にプロダクション環境で運用している話も聞けたのは収穫でした。 コンテナ技術は運用ノウハウがまだ業界的に溜まっておらず、各社手探りでやっている印象を受けました。 一方で、@higebu さんの次のコメントが特に印象に残りました。 バグは何にでも存在するからバグを恐れてたら何もできないんだよな #coreosjp— Yuya Kusakabe (

    CoreOS Meetup Tokyo #1 に行ってきた #coreosjp - weblog of key_amb
    peketamin
    peketamin 2015/04/11
  • IO負荷の高いプロセスを特定する方法 - weblog of key_amb

    カーネルの I/O Accounting 機能を利用する Linuxでカーネルのバージョンが 2.6.20 以降であれば、IO Accounting機能を使うとよい。 これが有効になっていれば、プロセス毎のI/O統計情報が /proc/${pid}/io に出力される。 …が、全プロセスについて、これを自前で分析するのは疲れるので、pidstat や dstat のようなツールを使うのが楽。 参考 IO Accounting 機能で I/O 負荷の高いプロセスを特定 :: drk7jp dstatの万能感がハンパない - (ひ)メモ iodump 2.6.19 以前のカーネルではどうすればいいか。 例えば、iodump というツールがある。 これは以前 Maatkit に含まれていた Perl スクリプトである。 使い方としては、以下の通り。 # download iodump wget

    IO負荷の高いプロセスを特定する方法 - weblog of key_amb
    peketamin
    peketamin 2014/12/01
  • 1