タグ

fluentdに関するhfmgardenのブックマーク (17)

  • Fluentd ソースコード完全解説 (v0.10向け)

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    Fluentd ソースコード完全解説 (v0.10向け)
  • fluent-plugin-secure-forwardと戯れた話 | GREE Engineering

    こちらのエントリーは「GREE Advent Calendar 2015 14日目」の記事です。 こんにちは、データエンジニアリングチームの山田です。6日目の記事の長谷川、田畠とともにグリーの分析基盤を良くする仕事をしています。主にデータ収集周りを担当しており、fluentdとはいつの間にか2年を超える付き合いとなりました。 さて今回は、fluent-plugin-secure-forwardについてつらつらと紹介していきたいと思います。 fluent-plugin-secure-forward(以下secure-forward)は、SSL/TLSを利用しセキュアにデータ転送を行うためのfluentd pluginです。fluentdにデフォルトで含まれているノード間を転送するためのforward plugin(以下forward)は転送時に暗号化などを行っていないため、インターネットを通

    fluent-plugin-secure-forwardと戯れた話 | GREE Engineering
  • Fluentd v0.12でのFilterとLabel - Go ahead!

    Fluentd,最近だと海外でも露出が増えてきていて,軽量・柔軟・ロバストという所で, 新規の他,既存のログコレクタのリプレース含め,採用する所が増えてたりします. より改善するため色々とユーザにヒアリングした結果,「フィルタ機能が欲しい」というのが一番多い意見でした. Fluentdは元々Treasure Dataへロバストにデータを転送するためのミドルウェアで,「ETLとかはTreasure Dataで」 というのもあり,組み込みでフィルタ機能はありませんでした. 今現在のOutputプラグインによるフィルタ実装は,タグの書き換えが必要だったりして少し慣れが必要で,初心者にはちと難しい. ということで,より簡単に効率よくデータストリームを扱えるフィルタ機能を入れることにしました! 前置きが長くなりましたが,次のバージョンであるv0.12ではFilterとLabelの導入が目玉機能になり

  • dockerなら5分で動く! nginxのログをfluentdで集めてnorikraでストリーム分析 - Qiita

    はじめに ようへいさんのポストを参考にしてdocker上でnginxとfluentdとnorikraを動かせたので、docker indexにイメージを掲載した。dockerのある環境ならあっという間に動くはず。 準備 dockerが動くこと ホスト側でfluentd用のファイルディスクリプタ設定を済ませていること 手順 norikraを動かす まずはログの集約先となるnorikraを動かす。 $ sudo docker run -p 26578:26578 -p 26571:26571 -p 24224:24224 -p 24224:24224/udp -d kazunori279/fluentd-norikra-server $ sudo docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 7874efdd2e

    dockerなら5分で動く! nginxのログをfluentdで集めてnorikraでストリーム分析 - Qiita
  • fluent-plugin-datacounter を norikra に置き換えるべき理由と設定方法 - sonots:blog

    fluent-plugin-datacounter を norikra に置き換えるべき理由と設定方法 - sonots:blog
  • Fluentdのレコードにホスト名を付与する最良の方法 - Y-Ken Studio

    Fluentdでログを集める時にそのサーバのホスト名(hostname)をレコードに追加したい。 そういう時に便利な設定サンプルを紹介します。 ユースケース tailプラグインで収集したApacheのエラーログに、ホスト情報を付与する その他、ございましたら教えてください Filterを用いた手法(オススメ) td-agent2環境(fluentd v0.12以降のバージョン)を利用していれば、Filterプラグインが使えます。 手間の掛かるタグ書き換えは必要ありません。 次の方法が標準付属のプラグインで実現できるため、最もシンプルです。 <source> @type forward </source> <filter debug.*> @type record_transformer <record> host ${hostname} </record> </filter> # @typ

    Fluentdのレコードにホスト名を付与する最良の方法 - Y-Ken Studio
    hfmgarden
    hfmgarden 2015/10/14
    forward_with_hostname使ってた。fliterいいなあ。
  • Fluentd v0.12 ラベル機能の使い方とプラグインの改修方法 - Qiita

    Fluentd v0.12 には Fluentd v0.12 is Released で言及されているように、「ラベル」という機能が追加されています。記事ではラベル機能の使い方、またラベル機能に対応するためにプラグインを改修する方法について解説します。 概説 このラベルという機能は、「内部ルーティングするのに add_tag_prefix したり remove_tag_prefix したり、タグ設計するのめんどくさい!!」という声にお答えして追加されたものです。 ラベル機能を使う事によって、タグを改変することなく、内部ルーティングすることができるようになります。 ラベル機能の導入によって、以下のような利点が生まれていると思います。 タグをいじることが(ほとんど)なくなったので、オリジナルのタグ情報を保てるようになった。 Fluentd 体がサポートする機能なので、プラグイン作者が個別に

    Fluentd v0.12 ラベル機能の使い方とプラグインの改修方法 - Qiita
  • Dogstatsd で Datadog にカスタムメトリクスを送る方法 〜Fluentd との連携を添えて〜 · takus's blog

    Datadog というシステム監視 SaaS のネタです。 先週の木曜に「Datadog でカスタムメトリクス送るの面倒じゃない?どうやってるの?」とある人に質問されたので、 自分が知ってる Dogstatsd を使う方法をシェアします。 これはあるサービスの Nginx のアクセスログとエラーログを、 Fluentd 経由で Datadog にカスタムメトリクスとして送って可視化した例になっていて、 それぞれ、 左上: ステータスコード別の集計グラフ 右上: 今日・昨日・一週間前のレスポンスタイムグラフ 左下: Fluentd の タグ毎の流量 右下: Fluentd の ホスト毎の流量 といったグラフになっています。このポストではこんなグラフを作る方法を説明します。 Dogstatsd とは? 唐突に Dogstatsd というものが出てきますが、カスタムメトリクスを送る場合はコイツを

  • Before Installing Fluentd | Fluentd

    You MUST set up your environment according to the steps below before installing Fluentd. Failing to do so will be the cause of many unnecessary problems. Table of Contents Set Up NTP Increase Max # of File Descriptors Optimize Network Kernel Parameters Set Up NTP It’s HIGHLY recommended that you set up NTP daemon (e.g. chrony, ntpd, etc) on the node to have accurate current timestamp. This is cruc

    Before Installing Fluentd | Fluentd
    hfmgarden
    hfmgarden 2015/10/10
    fluentd導入前に、最大fd数を増やしておくのと、network周りのKernelパラメタを調整しておくこと。
  • Fluentdのお勧めシステム構成パターン

    2014年9月9日開催の『サーバ/インフラエンジニア養成読 ログ収集〜可視化編』 出版記念!執筆者が語る大講演会! での発表スライドです。

    Fluentdのお勧めシステム構成パターン
  • fluentdの簡単な使い方、設定方法一覧

    fluentdはログの転送・集約を簡単に行うためのツール fluentd ログの転送・集約を行うためのツール。複数台のサーバーを運用している時にそれぞれのサーバーにたまるログを、簡単な記述で特定の場所に集約できる。 今までは同じことをどうやって実現していたの? バッチでコピーしたり、似たようなことをやるScribeというツールを使っていた。この方法だと、設定が複雑になりがちだし、バッチだとリアルタイムに処理することができなかった。 fluentdの利点は? 設定が簡単、かつリアルタイムに処理できること。fluentdを使うとバッチではなくリアルタイムなストリーミング処理ができる。 fluentとfluentdのどっちの読み方が正しいの? 一応、fluentdが正しいっぽいです。 fluentdのインストール方法 簡単なのは、GemやRPMを使ったインストール。yumでのインストールも自分で

  • Fluentdの設定を考えるときはこんなかんじで考えると便利 - Qiita

    Fluentdはデータを流すのに非常に便利なツールでそこら中で使われている(個人調べ)。そのため、なんかいろんなところで設定を見るのであるが、タグに情報が付いていたりフィールドに情報がついていたりして、あれ、これどうなってるんだっけ感に襲われることがよくある。 このあたり自分でも混乱しがちなので、普段どのように考えているかだいたいまとまった気がしたところで書いておくことにした。 Fluentdのデータ構造 まずはFluentdのデータ構造を知っておいた方が良い。Fluentdの内部データはMessagePackで符号化されているが、Fluentdのデータ構造は単なるハッシュではなく、時刻(time)とタグ(tag)という属性を持っている。次のような感じだ。 レコード レコード(record)は入力されたデータそのものであり、tailプラグインであれば、tailした1行のデータに相当する。重

    Fluentdの設定を考えるときはこんなかんじで考えると便利 - Qiita
  • FluentdのpingメッセージをNagiosで監視 - Studio3104::BLOG.new

    Fluentdの監視については、 Fluentd Meetup #2 @外道父 Fluentdを優しく見守る監視事例や、 #fluentdの死活監視を ping message + ping message checker で - tagomorisのメモ置き場がとても参考になります。 これらの情報を大いに参考にさせていただいて構成した環境の監視設定についてまとめます。 当方環境 ・各APPサーバなどからはfluent-agent-liteによってログとping messageが送られてくる ・受信側のFluentdサーバはシングルノード、シングルプロセス ・APPサーバ、Fluentdサーバ、Nagiosサーバはそれぞれ別のサーバ 監視方針 監視はなるべくシンプルにしたいので、こんな感じにしています。 ・TCP/UDPポート監視 ・プロセス監視はしない ・通知はNagiosから プロセス

    FluentdのpingメッセージをNagiosで監視 - Studio3104::BLOG.new
  • TAI64N形式のタイムスタンプをparseするFluentdのプラグインfluent-plugin-tai64n_parserを作った - Glide Note

    追記 2014年2月19日 記事の初投稿後に修正がかなり入っているので、最新の利用方法についてはglidenote/fluent-plugin-tai64n_parserを参照ください。 fluent-plugin-tai64n_parser | RubyGems.org | your community gem host glidenote/fluent-plugin-tai64n_parser TAI64N好きですか!!qmailのログとかでよく見る下記みたいなやつ。 @4000000052fafd8d3298434c new msg 3890 @4000000052fafd8d32984b1c info msg 3890: bytes 372 from <root@**********.pb> qp 31835 uid 0 @4000000052fafd8d373b5dbc sta

  • 増えるログ、多様化するログをどう効率的に運用するか

    増えるログ、多様化するログをどう効率的に運用するか:今さら聞けないfluentd~クラウド時代のログ管理入門(1)(1/2 ページ) 仮想化やクラウド化、モバイル化の進展に伴い、管理すべきログが多様化・肥大化しています。そんな中でも効率よく、意味のあるログ管理を実現するツールとして注目されている「fluentd」を、これから始めたい方のために一から解説します。 システムを安定して効率良く運用していくために、ログ管理は欠かせない要素の1つです。仮想化やクラウド化、モバイル化の進展につれてシステムはますます大規模化し、それに伴い管理すべきログが多様化・肥大化する傾向にあります。 fluentdはこういった中でも、効率よく、意味のあるログ管理を実現するために非常に有用なツールです。連載では、fluentdの基と具体的な活用方法を紹介します。 ログ管理の現状と課題 環境の仮想化・クラウド化、さ

    増えるログ、多様化するログをどう効率的に運用するか
  • Fluentd+Elasticsearch+Kibana構成で便利な、logstash形式インデックスの粒度をカスタマイズする方法 - Y-Ken Studio

    fluent-plugin-elasticsearchやKibanaのデフォルトであるlogstash形式では、年月日毎にインデックスを作成されて使われることを想定されています。 これは扱いやすいのですが万能では無く、次のような状況ではパフォーマンス的な観点で、このインデックスの粒度を変更することを検討すると良いケースがあります。 粒度を細かくしたいケース(時間単位) 日毎のインデックス作成では、elasticsearchに割り当てたメモリ量を超えてしまう 粒度を荒くしたいケース(週単位/月単位/年単位) 日毎のインデックス作成では容量が小さく、日常的に検索する範囲が複数のインデックスに渡るとき Kibanaは年月日以外の粒度(時間・日・週・月・年)にも対応していますので、変更することも容易です。これは次の2つの設定変更で適用できます。 ログ収集を行うElasticsearchへ流し込む、

    Fluentd+Elasticsearch+Kibana構成で便利な、logstash形式インデックスの粒度をカスタマイズする方法 - Y-Ken Studio
    hfmgarden
    hfmgarden 2014/01/07
    この辺りの技術、全く触れてない。面白そうだなあ。
  • 何故、fluentdなのか? - プログラマでありたい

    最近、fluentdという言葉を聞くことが多いと思います。fluentdは、それぞれのサーバからログを収集し集約する為のアプリケーションです。fluentdは「Log everything in JSON」を合言葉に、全てのログをJSON形式で扱います。また一緒に聞くキーワードとしては、大規模とかリアルタイムとかがあると思います。この時点で関係ないやと思って、興味を失った人も多いと思います。しかし、今後のログ管理は、fluentdが主流になるか解りませんが、同様の集約するフレームワークが中心になると思います。 何故、fluentdが必要か? まずはオンプレミスの世界から見て行きましょう。ログはサーバーにたまり、管理者はサーバにログインしてログを参照します。特に問題はありません。 次にAutoScalingを使わないAWSの世界です。これも同様に、ログはサーバーにたまり、管理者はサーバにログ

    何故、fluentdなのか? - プログラマでありたい
  • 1