タグ

Fluentdに関するjinjin252525のブックマーク (82)

  • 何問わかるかな?AWS FireLens(Fluent Bit利用版)クイズ!!! - LayerX エンジニアブログ

    こんにちは。バクラク事業部Platform Engineering部DevOpsチームの@civitaspoです。 7月はLayerXエンジニアブログを活発にしよう月間 ということで、この記事ではAWS FireLensに関する情報をクイズ形式でお届けします。 みなさんはAWS FireLensを使っていますか?弊社ではAmazon ECS上にアプリケーションをホスティングしており、AWS FireLensを利用してログ収集・ログ送信を行っています。AWS FireLensは非常に便利です。一方、AWS FireLensは奥が深い挙動をすることもあります。この記事ではそんなAWS FireLensを深く理解するための情報をクイズ形式でお届けしてみることにしました。僕が知る限りの情報を詰め込んでみたのでAWS FireLensを深く理解したい方に届けばいいなと思います。 AWS FireLe

    何問わかるかな?AWS FireLens(Fluent Bit利用版)クイズ!!! - LayerX エンジニアブログ
  • Building a scalable log solution aggregator with AWS Fargate, Fluentd, and Amazon Kinesis Data Firehose | Amazon Web Services

    AWS Compute Blog Building a scalable log solution aggregator with AWS Fargate, Fluentd, and Amazon Kinesis Data Firehose February 12, 2024: Amazon Kinesis Data Firehose has been renamed to Amazon Data Firehose. Read the AWS What’s New post to learn more. September 8, 2021: Amazon Elasticsearch Service has been renamed to Amazon OpenSearch Service. See details. This post is contributed by Wesley Pe

    Building a scalable log solution aggregator with AWS Fargate, Fluentd, and Amazon Kinesis Data Firehose | Amazon Web Services
  • Advanced Monitoring of Fluentd with Datadog and Rollbar : Part 1 : Instrumentation & Collection

    (This post is part 1/2 in a series. For part 2, see: Part 2 : Visualizing & Alerting) At Twilio, we use the open source log-forwarder Fluentd to forward billions of log messages per day from thousands of instances in Amazon AWS into Google BigQuery. Since the reliability of Fluentd is crucial to our operations, we have extensive monitoring and alerting around the Fluentd process running on each ho

    Advanced Monitoring of Fluentd with Datadog and Rollbar : Part 1 : Instrumentation & Collection
  • たごもりすメモ

    AWS LambdaRubyランタイムを使っててzipアーカイブで関数コードをアップロードしてる人向け。 基的にはGemfileに依存関係書いてbundle config set --local path 'vendor/bundle'してbundle installすればいい。以下のドキュメントを読もう。 docs.aws.amazon.com んだけど、Gemfileにrubygems.org以外から取得したgem、特にgitを指定したものを使っている場合にこれだけだとうまくいかないので、原因と対処を書いておく。 そもそもLambdaは何をやってるか 上述ドキュメントを読むとわかるが、zipファイルにはGemfile.lockもGemfileも入れない。それで動作する。これはどういうことかというと、AWS Lambdaのランタイム側ではBundlerを使わず(?)、vendor/b

    たごもりすメモ
  • 秒間数万のログをいい感じにするアーキテクチャ

    AWS Summit Tokyo 2016 Developer Conference (2016/06/03)

    秒間数万のログをいい感じにするアーキテクチャ
  • Fluentdにおけるログ運用 - Qiita

    Fluentdとは こんな感じ (引用: http://codezine.jp/static/images/article/6958/6958_02.gif) セットアップ Railsのログと、ウェブサーバの標準的なログを、S3に集約する構成 fluentdのエージェントのインストールは、下記URLから、各ディストリビューション別にチュートリアル閲覧可能 http://docs.treasuredata.com/articles/td-agent#install-td-agent conf <match *.**> type forest subtype s3 <template> aws_key_id xxx #IAMでS3への書き込み権限をもったものを指定(後述) aws_sec_key xxx #IAMでS3への書き込み権限をもったものを指定(後述) s3_bucket fluent

    Fluentdにおけるログ運用 - Qiita
  • fluent-plugin-s3で、time_slice_format %Y%m%dにしてても、一日に複数ファイルがでてくる件

    ログのバックアップをfluentd経由でs3に転送するようにしたのですが、time_slice_format %Y%m%dにしてても、一日に複数ファイルが生成されていました。 こんな感じ 原因がよく分からなかったのでtwitterでつぶやいてみたら、@frsyukiが返答してくださいました! twitterでのやり取りはこちらにまとめました。 fluent-plugin-s3で、time_slice_format %Y%m%dにしてても、一日に複数ファイルがでてくる件解決策↓のように、buffer_chunk_limitを大きい値で設定すればOKでした。 原因原因は、buffer pluginで指定される、buffer_chunk_limitがデフォルトの8M(2012/11/27現在)だったためです。 chunkは一時的なデータの格納場所で、fluent-plugin-s3ではbuffe

    fluent-plugin-s3で、time_slice_format %Y%m%dにしてても、一日に複数ファイルがでてくる件
  • Fluentd

    P!���U

  • Fluentdの障害時動作 - Tech Notes

    Fluentdが障害の時にどのような動作をするのか調べてみたので、そのメモ. td-agent 1.1.17(fluentd v0.10.39)で確認したつもりだが、もしかしたらもう少し新しいので確認したケースもあるかも. BufferedOutputを中心に記載している. BufferdOutputの基 fluentdの特徴の一つとして、fluentd送信先で障害があり、メッセージが送れなかった場合は大抵(BufferedOutputを使っているプラグインであれば)fluentdでバッファリングし、一定時間後に再送してくれる. このバッファリングのサイズは、BufferedOutputプラグインのbuffer_chunk_limit*buffer_queue_limitで決まる. これらのデフォルト値は以下に解説付きでまとまっている. (良く参照させて頂いています) Fluentdでバ

  • 2015年7月 : sonots:blog

    2015年07月14日20:34 カテゴリ 詳解Linuxカーネル 第7章プロセススケジューリング 社内で詳解 Linux カーネルの輪読会をしている。 詳解 Linuxカーネル 第3版posted with amazlet at 18.03.08Daniel P. Bovet Marco Cesati オライリー・ジャパン 売り上げランキング: 221,044 Amazon.co.jpで詳細を見る 第7章  プロセススケジューリングを担当したのでまとめた資料をおいておく > http://sonots.github.io/UTLK-ch07/ sonots コメント( 0 ) 2015年07月08日01:49 カテゴリ fluentdでログが欠損する可能性を考える out_forward => in_forward の通信においてログが欠損する可能性を考える。 前提としてまともに動いてい

    2015年7月 : sonots:blog
  • BufferedOutput pluginの代表的なoptionについて - Qiita

    こんにちは、こちらはFluentd Advent Calendar 6日目の記事となります。 このところBufferedOutput系のpluginのoptionについて質問されることが多かったので、せっかくですのでつらつらとここで紹介していこうかなと思います。なお、コードはfluentd v0.10.55です。 optionの挙動を把握するためにまずはfluentdが受け取ったレコードをどう処理していくのかを紹介し、その後fluentdの処理方法を踏まえて各optionを紹介していきます。 レコードの流れ はじめに、レコードを受け取ってからどう処理されてoutputされていくか簡単にレコードの処理を順を追って紹介いたします。 ① レコードを受け取りbufferingする input pluginがレコードを受け取ると、Engineを介してそのレコードのtagにマッチするoutput pl

    BufferedOutput pluginの代表的なoptionについて - Qiita
  • Zabbix+Pacemaker+Fluentd+Norikra+Jenkinsで監視、クラスタリング、ログ収集/解析、バックアップ

    Zabbix+Pacemaker+Fluentd+Norikra+Jenkinsで監視、クラスタリング、ログ収集/解析、バックアップ:Elasticsearch+Hadoopベースの大規模検索基盤大解剖(終)(1/2 ページ) リクルートの事例を基に、大規模BtoCサービスに求められる検索基盤はどう構築されるものなのか、どんな技術が採用されているのか、運用はどうなっているのかなどについて解説する連載。最終回は、監視、クラスタリング、ログ収集/解析、バックアップに使っているOSS技術と、その使いどころを紹介する。 連載目次 リクルートの全社検索基盤「Qass」の事例を基に、大規模BtoCサービスに求められる検索基盤はどう構築されるものなのか、どんな技術が採用されているのか、運用はどうなっているのかなどについて解説する連載。 最終回となる今回は、前回の「AWS+オンプレのハイブリッドクラウド

    Zabbix+Pacemaker+Fluentd+Norikra+Jenkinsで監視、クラスタリング、ログ収集/解析、バックアップ
  • fluentdで始めるログ管理【フォワード設定まとめ】 | Tech-Sketch

    この記事はeXcale Developer's Blogから移転されたものです。 eXcale開発チームの泉谷(@syguer)です。 今回は前回の続きとして、fluentdでログを他のサーバーに転送する方法について紹介します。 >>eXcaleは期間限定でサインアップキャンペーン実施中!気になる内容はこちら<< ログの転送について fluentdではアウトプットの手段として他のサーバーへの転送を選択することでログの集約を簡単に実現できます。 基的な構成 設定と動作のイメージができるように、シンプルにあるサーバーからあるサーバーへ送信する例を見てみます。 以下がデータを送る側と送られる側の設定例です。 ※記事ではバッファリングに対する設定はデフォルト値を使うため、以下のすべての例で設定はありません(設定しなければデフォルト値が使われます) バッファリングの設定については前回の記事を

  • Fluentdのロギング - Qiita

    Fluentdの公式ドキュメントにloggingのページがあるんですが,まだ英語しかなく,運用の話を聞いてるとここに書いてあることで解決出来るケースがいくつかあったので,とりあえず日語で記事にしておきます. プラグイン毎のログレベル 昔のFluentdはグローバルに一つしかログレベルを設定出来なかったんですが,今ならプラグイン毎に設定出来ます.プラグインが対応している必要がありますが,まぁ今時のプラグインや広くつかわれているやつはほとんど対応していると思います. in_tailプラグインはログにマッチしない行があったらwarnでメッセージを出しますが,そういうbrokenな行があることが分かっていてログを出さずに無視して欲しい,というような場合に有効です. その他にも,あるプラグインだけデバッグモードで走らせたい,みたいなことが出来るようになります. ログのスタックトレースの抑制 Flu

    Fluentdのロギング - Qiita
  • Fluentd でプラグインごとにログレベルを設定できるようになった件 : sonots:blog

    Fluentd でプラグインごとにログレベルを設定できるようになった件 : sonots:blog
  • Fluentd v0.12でのFilterとLabel - Go ahead!

    Fluentd,最近だと海外でも露出が増えてきていて,軽量・柔軟・ロバストという所で, 新規の他,既存のログコレクタのリプレース含め,採用する所が増えてたりします. より改善するため色々とユーザにヒアリングした結果,「フィルタ機能が欲しい」というのが一番多い意見でした. Fluentdは元々Treasure Dataへロバストにデータを転送するためのミドルウェアで,「ETLとかはTreasure Dataで」 というのもあり,組み込みでフィルタ機能はありませんでした. 今現在のOutputプラグインによるフィルタ実装は,タグの書き換えが必要だったりして少し慣れが必要で,初心者にはちと難しい. ということで,より簡単に効率よくデータストリームを扱えるフィルタ機能を入れることにしました! 前置きが長くなりましたが,次のバージョンであるv0.12ではFilterとLabelの導入が目玉機能になり

  • Fluentd v0.12の目玉機能らしいFilterを試してみた - Qiita

    Advent Calendar書くネタなんてなかったからどうしようかマジ焦った^^; 背景 apacheのエラーログなんかをfluentdに投げて、チャットツールに流したりしてる。 そんなことしていると、余計なデータがいっぱいチャットログに出るのでフィルタリングしたいなーって思ってた。 とりあえずfluentdのプラグインをいろいろ組み合わせればやれそうだなーと思っていた。 実際fluent-plugin-grepやfluent-plugin-hipchatとか組み合わせてやってみてできたのだけど、 痒いところに手が届かなかった。 そこでoutputプラグインを自作してそれを使っていた。 ただ自作のプラグインは、目的は達成できたものの、もろもろの条件などをベタ書きした糞コード。 全然イカしてない・・・・・・ なんとかならんのか・・・・ そんなときに神のお告げをきいた:Fluentd v0.

    Fluentd v0.12の目玉機能らしいFilterを試してみた - Qiita
  • SIOS ビッグデータ技術ブログ: Postfixのログをfluentdを使ってTreasureDataに送る

    こんにちは、SSTDの髙橋です。 前回の更新から日が空いてしまいましたが、引き続き継続して情報発信をしていきたいと思います。 さて、社内メールにGmailなどのクラウドサービスを使うことは一般的になってきましたが、それでも社内メールサーバと連携することは一般的です。 そうした中で、メールサーバに障害が発生した際に、SSHしてメールサーバのログを必死に読み解いていくはなかなか面倒です。 そこで今回は、Postfixのログをfluentdを使ってTreasureDataに送ってみたいと思います(td-agentをご利用の方はfluentdの箇所をtd-agentと読み替えて御試し下さい)。 実行環境 Postfixやfluentdの設定は既に設定済みであるとします。 Mac OS 10.9.4Postfix 2.9.4smtpにはgmailを設定済fluentd 0.10.52 fluent-

    SIOS ビッグデータ技術ブログ: Postfixのログをfluentdを使ってTreasureDataに送る
  • fluentd自身のログにまつわるノウハウ - still deeper

    fluentdのログ 流行に敏いみなさまは既にfluentdのクラスタを組まれているかと思います 1 が、fluentd自体のログはどうしてますでしょうか? サーバーに直接入って確認している?せっかくログアグリゲーターを組んでいるのだから、fluentd自体のログもfluentdで管理しませんか。 fluentdでは以下の様な match を定義しておくと、自身のログをメッセージとして流すようになっています。 <match fluent.**> ... </match> 流れてくるメッセージはこんな感じ。 fluent.info: {"message":"force flushing buffered events"} fluent.warn: {"message":"emit transaction failed"} fluent.error: {"message":"forward e

  • fluentd + Elasticsearch + kibana + siege でお手軽に web サイトのレスポンスタイムを可視化する試み(2) - ようへいの日々精進XP

    はじめに 前回の記事で fluentd から Elasticsearch にデータを放り込む際にフィールドタイプが軒並み文字列として扱われてしまった対応として fluent-plugin-typecast を使ってフィールドタイプを変更して Elasticsearch にデータを放り込んで対応したが、別のアプローチとして @johtani さんに以下のようなコメントを頂いたので早速試してみる! elasticsearch側でマッピングを定義してあげてからデータを登録するとおそらく、floatなどは文字列が来ても登録できると思います。 見た感じ、フィールド名などは決まっているようですし。 コメント頂けるだけでも嬉しいのにわざわざ手順まで記載頂いて感謝!有難うございます! 参考 johtani / double_mapping_test.json mapping core types deve

    fluentd + Elasticsearch + kibana + siege でお手軽に web サイトのレスポンスタイムを可視化する試み(2) - ようへいの日々精進XP