タグ

elasticsearchとkibanaに関するsomathorのブックマーク (6)

  • Elasticsearch and Kibana are now business risks

    In a play to convert users of their open source projects into paying customers, today Elastic announced that they are changing the license of both Elasticsearch and Kibana from the open source Apache v2 license to Server Side Public License (SSPL). If your organisation uses the open source versions of either Elasticsearch or Kibana in its products or projects, it is now at risk of being forced to

    Elasticsearch and Kibana are now business risks
  • Dockerのログ収集方法の調査 - Qiita

    すべてのログは標準出力・標準エラー出力に出力 ・Dockerlogging driver ・ログの集約がしづらい ・Fluentdに転送設定 コンテナ起動時に既にFluentdが死んでいる場合、コンテナが起動できない など。詳細は以下のサイトを参照 Dockerコンテナ上のログ集約に関するまとめ Dockerlogging driver: それぞれの特徴と使いどころ(json-file, syslog, journald, fluentd) 対象のログ リアルタイムに出力されるログが対象 ・Fluentd / fluentd-ui ・FluentBit ・Filebeat ・Logstash 既にあるログが対象 ・Embulk Fluentdのバッチ版Embulk(エンバルク)のまとめ Docker-composeを使ってEmbulk,Elasticsearch,Kibana環境を構築

    Dockerのログ収集方法の調査 - Qiita
  • Elastic Cloud を採用する事にした

    検討した結果、採用することにしたので、その過程の理由を。 Elastic Stack を使うことにしたのはいいが、サーバをどう構築するかは決め兼ねていた。 普段から使っている Vultr という VPS サービス上に構築する予定だったのだが、そこそこめんどくさい。落ちた時、ディスク不足などを考える必要がある。 そこで次は AWS の CloudSearch を検討することにしたが、いまいち使いづらい。こちらとしては運用を丸投げしたいだけなのだが、しっくり来ない。転送量課金もある。これは仕方がないが。 そこで Elastic が提供している Elastic Cloud を試してみることにした。 自分が思いつく要求をまとめる。 運用に手間がかからないあまり高くない予算は月 2 万円程度使う側は Beats だけを意識していればいいKibana も運用してほしいサーバは東京にあって欲しい転送量で

    Elastic Cloud を採用する事にした
  • 時系列DBって結局どれがいいんだっけ #TSDB - weblog of key_amb

    ※4/6 その後調べた情報などを記事末尾に追記 前提となるニーズ サーバの負荷情報とか、アクセス状況のような KPI を取得・保存し、可視化(参照してグラフ化)したい。 リアルタイム性が要求される。5分以上前のデータしか見れませんみたいなのはお呼びでない。 古いデータはそんなに精度は気にしないけど、ロングスパンで俯瞰して見れたら便利。 最近はビッグデータ環境の時系列データ解析もビジネスではけっこうニーズがありそうだけど、そっちはもう少し要求が多そう。 ここでは考えないことにする。 選択肢になりそうなもの 古きよき RRDtool Elasticsearch + Kibana Graphite + Grafana InfluxDB + Grafana 等 Zabbix 他に、現実的には SaaS に任せるという手段もあるだろうけど、そう言うと話が終わってしまいそうなので、ここでは考えないこと

    時系列DBって結局どれがいいんだっけ #TSDB - weblog of key_amb
  • NginxのアクセスログをKibanaで可視化 - Carpe Diem

    概要 Nginxのアクセスログを用いて可視化の流れをまとめます。 mappingは手動で設定します。 環境 Ubuntu 14.04 fluentd 0.12.19 fluent-plugin-elasticsearch 1.3.0 Nginx 1.4.6 Elasticsearch 2.1.1 Kibana 4.3.1 構成 IP 名前 役割 192.168.33.100 web Webサーバ。ログは転送 192.168.33.101 kibana Kibana。転送されたログをKibanaへ この構成のためにVagrantfileを以下のように編集します。 config.vm.define :web do |web| web.vm.network :private_network, ip: "192.168.33.100" web.vm.provider "virtualbox" do

    NginxのアクセスログをKibanaで可視化 - Carpe Diem
  • Fluentd、ElasticSearch、Kibana4によるログ分析環境の構築 – hrendoh's tech memo

    現在、ログを収集し分析するシステムを構築しようとした場合に、オープンソースの組み合わせですぐに始められる構成としてはじめに思いつくのは Fluentd + ElasticSearch + Kibana の構成です。 Web上の記事や書籍も充実していますし、日にもユーザーが多そうなので割と安心して利用できる環境でもあると思われます。 この記事では、Fluendによりログ収集しElasticSearchに保存し、それをKibana 4で分析する環境の構築手順について調べた内容をまとめてみました。 今回試したのは以下のように、Apacheのアクセスログをtailして、Fluentdで収集しElasticSearchに保存、Kibanaでログの検索、分析を行うシンプルなシステム構成です Apacheのログを収集するサーバーおよびElasticSearch、Kibanaをインストールするサーバーと

    Fluentd、ElasticSearch、Kibana4によるログ分析環境の構築 – hrendoh's tech memo
  • 1