タグ

fluentdに関するyukimori_726のブックマーク (69)

  • docker fluentd logging driver の基礎的な設定 - Qiita

    docker container では、コンテナ内の何かしらのプログラムが標準出力 (strout) や標準エラー (stderr) に出力した内容を docker logs コマンドで取得することができます。 しかし能動的に取得しいにいくだけでなく、何かしら別の方法で forward をしてくれると助かることもあります。 docker では logging driver という機構で、stdout / stderr に出力された内容を指定された方法で forward する仕組みがあります。 サポートされている logging driver の種類については以下公式ドキュメントを参照ください。 そのうち、この記事では fluentd logging driver についてのみ触れます。 overview fluentd logging driver は、上述の logging driver

    docker fluentd logging driver の基礎的な設定 - Qiita
  • Fluentd+Elasticsearch+kibanaを使ったログ可視化(part1) - Qiita

    はじめに ログの可視化をしたいと思い立ち、いろんなサイトを参考にして、まずはサーバの構築をしてみることにしました。 ということで、まず第一弾はサーバの構築をやっていきます。 構成 サーバを2台作ります。 サーバ1号機は、クライアントとして。サーバ2号機はサーバとして利用することとします。 サーバ1号機にはFluentd、サーバ2号機にはFluentd/Elasticsearch/kibanaをインストールします。 ざっくりはこんな感じ 環境 使用した環境は以下の通り。 HostOS version

    Fluentd+Elasticsearch+kibanaを使ったログ可視化(part1) - Qiita
  • kafka-fluentd-consumerとfluencyとfluent-plugin-elasticsearchのメモリに関する話 - wyukawa's diary

    うちの環境ではkafkaに入ってるログをkafka-fluentd-consumer 0.3.0でconsumeしたのちにfluent-plugin-elasticsearch 1.9.0経由でElasticsearchになげるということをしています。 fluent-plugin-elasticsearchは8プロセス動いていて各プロセスがメモリを5〜8GB使っている状態でした。マシンのメモリは64GBだったので割とメモリがかつかつな状態だったせいか、以下のようなログをはいてkafka-fluentd-consumerが落ちるという状況が発生していました。 failed; error='Cannot allocate memory' (errno=12) # # Native memory allocation (mmap) failed to map 555745280 bytes fo

    kafka-fluentd-consumerとfluencyとfluent-plugin-elasticsearchのメモリに関する話 - wyukawa's diary
  • Java で Fluentd の in_forward っぽいことをするライブラリを作りました #fluentd - Qiita

    作ったもの Fluentd Forward Server を実装するための Java ライブラリです。 Influent Forward とは Forward はネットワーク経由でイベントを送受信するために用いる、Fluentd 標準の仕組みです。 Forward Protocol Specification v1 Fluentd プラグインである in_forward, out_forward がその主な実装で、 forward Input Plugin forward Output Plugin 各種 Fluentd クライアントもこの仕様に則ってイベント送信機能を実現しています。 fluent-logger-java fluent-logger-ruby fluent-logger-php Influent はサーバ側の実装であり、Java アプリケーションに Forward リクエ

    Java で Fluentd の in_forward っぽいことをするライブラリを作りました #fluentd - Qiita
  • 松江市でOSSの話をした & Fluentd meetup をやった - たごもりすメモ

    なんか最近プレゼンテーションやった話しかエントリに書いていない……。。。 それはともかく、しまねOSS協議会というところから周年記念講演で話さないかというお誘いがありまして、お受けしたので島根県松江市で話してきた。せっかくRuby City Matsueに行くことだしついでにイベントやってこようということで Fluentd meetup in Matsue もやることになり、そんなわけでふたつ発表してきた。 第106回オープンソースサロン・総会記念講演 第106回オープンソースサロン・総会記念講演 | しまねOSS協議会 OS4 しまねOSS協議会ということで、オープンソースソフトウェアの話。 Open Source Software, Distributed Systems, Database as a Cloud Service from SATOSHI TAGOMORI というか、ト

    松江市でOSSの話をした & Fluentd meetup をやった - たごもりすメモ
  • LinuxCon Japan 2016に行ってきた&しゃべってきた - たごもりすメモ

    LinuxCon Japan、今回は ContainerCon Japanとの併催。サブトラックみたいなのもいくつかあった。 とにかく普段に自分が行くカンファレンスとぜんぜん空気が違ってて、東京都内で行われてるカンファレンスなのに会場の感じとか事・飲み物の提供とか冷房のキツさとか、あれこれがだいぶ海外のカンファレンスっぽい。参加費が高いからできることなんだろうけど。そして海外からと思しき参加者も非常に多かった。すごいな。 日国内からも大手メーカー系のスポンサードと参加者が非常に多かった。普段見ないあたりの世界だなあ。 しゃべってきた プロポーザルを出してみたら通ったので初めての参加&発表だった。行ったことないので全体的にどういう空気なのかも分からないまま、初日のキーノート後の通常の発表枠の中で最初に時間だった。お、おう……。 今回はロギングに関してのアーキテクチャを議論するよ、というこ

    LinuxCon Japan 2016に行ってきた&しゃべってきた - たごもりすメモ
  • Lobiのログ集約・解析のはなし - KAYAC engineers' blog

    Lobiチームの長田です。 あらゆるWebサービスがそうであるように、Lobiでも日々大量のログが出力されています。 今回はこのログをどのように集約・解析しているかを紹介します。 TL;DR アクセスログ・アプリログなど、毎秒10000行以上のログが生成されている Fluentdを使用しログを集約 consul serviceを利用した集約サーバーの冗長化 ログ中のイベント検知・集約にはNorikraを使用 アクセスログの各種解析にはAmazon Redshiftを利用 ログの集約 ログ収集エージェント Lobiではログの集約にFluentdを利用しています。 Fluentd | Open Source Data Collector | Unified Logging Layer ログファイルの集約にはfluent-agent-hydraを、Perlアプリケーション内からのログ送信にはFl

    Lobiのログ集約・解析のはなし - KAYAC engineers' blog
  • Prometheus casual talk1

    This document discusses using Prometheus and Grafana to monitor Hadoop, Fluentd, and Elasticsearch clusters. It provides an overview of Prometheus' history and architecture, including its pull-based model and multidimensional data model. It also describes implementing exporters to monitor specific services and visualizing metrics and alerts in Grafana.Read less

    Prometheus casual talk1
  • いまさらだけど fluentd に入門した - えいのうにっき

    仕事で僕が担当してるプロダクトでも、「そろそろ fluentd を...」という話題が出始めた。 社内の別プロダクトでは既に導入されてるものもあったりして、たぶん会社的にはノウハウも溜まり始めてきてるとは思うんだけど、なにせ僕自身が fluentd について雰囲気しかわかってないままだったので、それじゃイカンなと、いまさらだけどようやく fluentd に入門した。そのついでにメモった内容を晒す。 入門前のイメージ みんな「アプリは何も考えず、とりあえず fluentd に投げとけば幸せになれる」って言ってる なので、そういう感じの存在なんだろうな fluentd は、くらいの理解しかない 具体的にどう幸せになるのかはあんまり想像が付いてない "d" がついてるので、デーモン的な何かかな? ロゴがイカしてる くコ:彡 ゴール 実際に導入するとなったら具体的にどんなことをしなければいけないの

    いまさらだけど fluentd に入門した - えいのうにっき
  • fluent-plugin-kafka: fluentd と Kafka の連携 — kafka-docs 0.0.1 ドキュメント

    fluent-plugin-kafka: fluentd と Kafka の連携¶ (最終更新:2016 年 1 月 1 日) fluentd 自体の詳しい説明は他に譲るとして、文書では fluentd と Kafka を組み合わせる方法を紹介する。文書を読むと、fluentd で syslog を読み取り、Kafka に流す設定がわかる。Kafka の起動手順は Apache Kafka Quick Start を参照のこと。 文書で作成するシステムは下図のようになる。 fluentd で syslog を読み取る¶ fluentd と Kafka を組み合わせる練習として fluentd で syslog を読み取ってみよう。syslog は適度にいろいろなログが出力されるので見ていて楽しい。はじめはデバッグのために、読み取ったログデータを標準出力に垂れ流すことにする。 まずは

  • 秒間数万のログをいい感じにするアーキテクチャ

    AWS Summit Tokyo 2016 Developer Conference (2016/06/03)

    秒間数万のログをいい感じにするアーキテクチャ
  • logback で出すログを強制的に1行にして収集しやすく・運用しやすくする - Qiita

    Java のスタックトレースや、使うライブラリによっては改行つきでログ出力したりで、1つの意味をもつログが複数行に吐き出されることがありますが、それだと収集しづらいので、強制的に1行にしておくと、fluentd などのログ収集ツールで収集しやすく・運用しやすくなります。 開発時に参照するコンソールにはヒューマンリーダブルなログがよいですが、番でファイルに出力するログは1行にしてしまい、運用時のログの参照はなんらかのツールを介して行う、というのがよいのではないかと思います。 最近の fluentd の in_tail は複数行のパースに対応しているが format multiline とし、開始行のパターンを正規表現で書いたりしてがんばって設定することで対応はできます。 が、ちょっと書きづらい。 そこで logback のフォーマット定義で対応してみる 例えば、 <appender ...

    logback で出すログを強制的に1行にして収集しやすく・運用しやすくする - Qiita
  • fluentd-mode - Shohei Yoshida's Diary

    tagomoris.hatenablog.com 昔なんとなく書いたものを apache-modeを参考に改善しました. github.com 問題点, 要望等ありましたら github issuesまで知らせていだけると大変助かります.

    fluentd-mode - Shohei Yoshida's Diary
  • Fluentdで本番環境を再現

    This document summarizes a microservices meetup hosted by @mosa_siru. Key points include: 1. @mosa_siru is an engineer at DeNA and CTO of Gunosy. 2. The meetup covered Gunosy's architecture with over 45 GitHub repositories, 30 stacks, 10 Go APIs, and 10 Python batch processes using AWS services like Kinesis, Lambda, SQS and API Gateway. 3. Challenges discussed were managing 30 microservices, ensur

    Fluentdで本番環境を再現
  • Kafka Consumer for Fluentd - Qiita

    treasure-data/kafka-fluentd-consumer Kafkaからデータを取り出してFluentdに転送するJava実装のKafka Consumerを書きました.基的なことはREADMEに書いてるんですが,一応日語でも書いておきます. 背景 1トピック1パーティションであれば,すでに公開されているfluent-plugin-kafkaが使えます.ですが,複数トピックだったりをConsumer Groupを使って処理しようとすると,現状fluent-plugin-kafkaが依存しているPoseidonに機能がたりないという問題があります(output側は問題ありません). 海外だとデータ量が多い会社も多く,それに伴いKafkaを使っている会社が少しずつ増えてます.その影響もあり,FluentdとKafkaを連携させたいという要望がちょくちょく出てきたので,Jav

    Kafka Consumer for Fluentd - Qiita
  • fluentdでつくる監視系 - Qiita

    いつもアプリケーションの開発ばかりで、まじめに監視系を考えたことがなかったので、 fluentdを中心にした監視系を作ってみた。 前提 複数台のアプリケーションサーバ 一台のログ収集サーバ ログにはエラーログとアクセスログの大きく2種類を用意する エラーログは更に複数のレベルでファイル単位にわかれている fatal error warn アプリケーションサーバとログ収集サーバは同一ネットワーク上にある やりたいこと メールで来ても絶対に気がつかない自信がある。 異常の側から教えてくれる仕組みを目指す。 fatalログが出た場合は、電話による通知を行う 全てのエラーログはchatツールに出力する ログのバックアップ ログの分析・可視化 この記事では1, 2, 3についてまとめる。 構築 fluentdのインストール 公式のドキュメントが一番わかり易い。 Installation | Flue

    fluentdでつくる監視系 - Qiita
  • fluentdの簡単な使い方、設定方法一覧

    fluentdはログの転送・集約を簡単に行うためのツール fluentd ログの転送・集約を行うためのツール。複数台のサーバーを運用している時にそれぞれのサーバーにたまるログを、簡単な記述で特定の場所に集約できる。 今までは同じことをどうやって実現していたの? バッチでコピーしたり、似たようなことをやるScribeというツールを使っていた。この方法だと、設定が複雑になりがちだし、バッチだとリアルタイムに処理することができなかった。 fluentdの利点は? 設定が簡単、かつリアルタイムに処理できること。fluentdを使うとバッチではなくリアルタイムなストリーミング処理ができる。 fluentとfluentdのどっちの読み方が正しいの? 一応、fluentdが正しいっぽいです。 fluentdのインストール方法 簡単なのは、GemやRPMを使ったインストール。yumでのインストールも自分で

  • Fluentdのin_forwardに流れているレコードをtcpdumpで見る - ryotarai's blog

    番環境で動いているFluentdのin_forwardに何が流れているのかを知りたい、けど設定を触りたくない…みたいな場合に流れているタグやレコードを見る方法です。特にFluentdに限った話ではないですが、備忘録として書いておきます。 1. tcpdumpでキャプチャ 調べたいサーバ上で、tcpdumpを使ってパケットキャプチャを取ります。in_forwardのポート番号などを指定してキャプチャします。 $ sudo tcpdump -i eth0 -w fluentd.pcap port 24224 and tcp 2. tcptraceでTCPストリームのデータだけ吐き出す tcptraceは-eオプションを渡すと、TCPストリームごとのデータをファイルに吐いてくれるのでこれを利用します。なお、tcptraceはHomebrewやaptで入ると思います。 $ tcptrace -e

    Fluentdのin_forwardに流れているレコードをtcpdumpで見る - ryotarai's blog
  • Jubatus Casual Talksで話してきた - katsyoshiのブログ

    Jubatus Casual Talksで話してきた Jubatus Casual Talksで話してきました.mikutter-jubatusとfluent-plugin-jubatusを話しました.mikutter-jubatusについては以前書いたのでここでは割愛します. fluent-plugin-jubatus Fluentdに投げられたデータをJubatusに投げて結果を再びFluentdに投げるプラグインです. Fluentdはリアルタイムで流れるようにデータが得られますので,リアルタイムで評価できるJubatusと相性がよいと考えています.今はサポートしている機能として,分類器と異常値検知のみです.また,分類器では学習はサポートしておらず,判定のみをサポートしています. 異常検知 異常検知については,Jubatus Casual Talks開催中に実装されたのでここで説明を

    Jubatus Casual Talksで話してきた - katsyoshiのブログ
  • Fluentd and Kafka

    This document discusses using Fluentd to collect streaming data from Apache Kafka. It presents two approaches: 1) the fluent-plugin-kafka plugin which allows Fluentd to act as a producer and consumer of Kafka topics, and 2) the kafka-fluentd-consumer project which runs a standalone Kafka consumer that sends events to Fluentd. Configuration examples are provided for both approaches. The document co

    Fluentd and Kafka