CTO Night & Day 2016 winterでのモーニングセッションの資料です!Read less
brew install elasticsearch ln -sfv /usr/local/opt/elasticsearch/*.plist ~/Library/LaunchAgents launchctl load ~/Library/LaunchAgents/homebrew.mxcl.elasticsearch.plist
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 近年、自分の中で集計/可視化は Fluentd(datacounter)+Growthforecast で定番化していました。 しかしプロダクトで新たに集計/可視化の要件が出てきたことと、 最近可視化ツール周りで 「Kibanaってなんじゃ?」「Graphiteってなんじゃ?」「InfluxDBってなんじゃ?」 など、このツール達は一体何なんだろう…?というのが前々から気になっていました。 今回良い機会なので ◯◯は何をするものなのか? というのを一つ一つ調べてみました。 いわゆる「触ってみた系」の記事なので だいぶ浅い感じです。 大分
はじめに AWSのElasticSearchは便利ですね。サーバを管理せずにkibanaまで使えちゃうとか、個人ユースなら無償利用枠で完璧ですね! でも、基本的にIPアドレスベースの制御しかやりようがないので、どうしたものかなーと思っていたので、nginxでリバプロを立ててそこでBasic認証をかけられないかを検討するに至りました。 その記録です。 やりたいこと/やったこと 一番はIAMとかでkibanaのGUI画面ログイン前にAWSのログイン画面が出てくれば完璧なんですが、それはできそうにないので、仕方なくリバプロを立ててそこでBasic認証をかけることを考えました。 まずは、こんなコンフィグを書きました。 /etc/nginx/conf.d/reverse.conf server { server_name XXXXXX.ap-northeast-1.compute.amazonaws
はじめに Kibana4ではKibana3から全面的にグラフの作り方が変わっているので、どんなグラフが作れるのだろう?と思って色々やってみた. Kibana4自体のセットアップや全体的な使い方はこちらの記事にまとまっている. 以下で作成するグラフのデータについても、この記事の中で利用されているテストデータharukasan/kibana-testdataを使わせて頂いた. Kibanaは現時点での最新版であるKibana4beta3を使用した. Kibana4におけるVisualizeの基本 以下の順番でVisualizeを行う 対象となるデータを選択する. 新しく検索を行う、既存の検索結果を使う、既存のVisualizeを元にする、と言う選択肢がある Visualizeの種類を選択する. 面グラフ、線グラフ、等など 表示する値(Y軸やmetric)を選択する X軸やSub aggrega
はじめに 藤本です。 本日(現地時間は昨日)、Elasticで多くのProductの新バージョンがリリースされました。 Elasticsearch 2.2.0, 2.1.2, and 1.7.5 released Kibana 4.4.0 is eye meltingly colorful Beats 1.1.0 & Winlogbeat released Logstash 2.2.0 and 2.1.2 released Elasticsearch for Apache Hadoop 2.2.0 and 2.1.3 released ElasticsearchのQuery Profile APIやKibanaのShield UI Plugin対応、winlogbeatという新しいBeatsやら内容盛り沢山です! その中で今回はKibanaのShield UI Plugin対応を早速試して
前回、前々回とOS 7にFluentd (td-agent 2.3.0) + Elasticsearch 2.1.1 + Kibana 4.3.1 を構築して、Zaimの家計簿データをFluentd経由でElasticsearchに登録するところまでを見た。 今回は続きとして、Elasticsearchに登録した家計簿データをKibana 4で可視化するところをやる。 Kibana可視化の流れ Kibanaを起動している状態で、以下にアクセスする。 http://vmdev:5601/ ※vmdevはKibanaが起動しているサーバのホスト Kibanaのページを開くと、このような画面が出る。メニューバーにある項目の通り、可視化の流れは以下になる。 Settings : インデックスパターンを登録する Discover : データを検索する Visualize: 検索したデータをグラフ化す
Ubuntu14.04にElasticsearch 2.1をインストールする方法の備忘録です。 ElasticsearchはLuceneベースの全文検索エンジンです。 Elasticsearch | Elastic Elasticsearchの勉強をするためにインストールしてみます。Ubuntu14.04は適当なVagrant boxを探してきて用意しました。 構成 Elasticsearch 2.1.1はOracleかOpenJDKのJava 8 update 20またはJava 7 update 55より新しいバージョンのJVMが必要です。 今回はOpenJDKを使います。 Ubuntu 14.04 OpenJDK 1.8.0_72 Elasticsearch 2.1.1 OpenJDKをインストール openjdk-8-jdkパッケージのインストール OpenJDKのリポジトリを追加
今回は、agent(1台)、elasticsearch + kinbana 同居(1台)の2台で構成します。 クラスタは今回は使いません!(あとでハマるので1台構成は注意) Logstashは今回使わなかったのですが。 訳があったので、記しておきます。 ログが存在するサーバーにJava8(JRE)を入れる必要があった (入れたくなかった、環境をできるだけいじりたくなかった) beatsがなかなか軽量で、Javaも必要無く要件を満たした。 検証サーバーのインスタンスサイズ「t2.micro」だとlogstash入れて動かしたら、ハングアップした・・・。 収集先でfilter要素で logstash 使えそうだったが、今回はそこまでの要件がなかった。 同様にfilter要件で、 td-agent も入れてみたがうまくelasticsearch5.0にデータが入れられなかった。 注意点 kiba
概要 macにfluentd(td-agent)をインストールする手順です。 環境 OS X Yosemite(バージョン10.10.5) fluentd-0.12.19(td-agent-2.3.0-0) インストール手順 公式サイトからtd-agentのdmgをダウンロード 最新版はtd-agent-2.3.0-0.dmgでした(2016/05/14時点) dmgダブルクリックでtd-agent-2.3.0-0.pkgができるのでインストール 全てデフォルト設定でインストール td-agentの起動・停止コマンド # 起動 sudo launchctl load /Library/LaunchDaemons/td-agent.plist # 停止 sudo launchctl unload /Library/LaunchDaemons/td-agent.plist
現在、ログを収集し分析するシステムを構築しようとした場合に、オープンソースの組み合わせですぐに始められる構成としてはじめに思いつくのは Fluentd + ElasticSearch + Kibana の構成です。 Web上の記事や書籍も充実していますし、日本にもユーザーが多そうなので割と安心して利用できる環境でもあると思われます。 この記事では、Fluendによりログ収集しElasticSearchに保存し、それをKibana 4で分析する環境の構築手順について調べた内容をまとめてみました。 今回試したのは以下のように、Apacheのアクセスログをtailして、Fluentdで収集しElasticSearchに保存、Kibanaでログの検索、分析を行うシンプルなシステム構成です Apacheのログを収集するサーバーおよびElasticSearch、Kibanaをインストールするサーバーと
設定例:Apacheのアクセスログを記録する fluentdの基本的な設定例として、まずはApacheのアクセスログを処理する例を紹介しよう。今回は入力プラグインとして「in_tail」を使用し、Apacheがデフォルトで出力するログはそのまま残したうえでfluentdでログを記録することにする。 in_tailプラグインは、指定したテキストファイルを監視し、ファイルに新たな行が追加されたらその内容をログとして記録するという動作をする。なお、テキスト形式でログを記録する場合、logrotateというツールで一定期間ごとにログを別ファイルに切り替えたり、ログファイルを圧縮する、といった作業を行うことが多いが、in_tailプラグインではlogrotateを考慮したファイル監視を行うようになっているため、logrotateを利用している場合でも特に追加の設定などを行う必要はない。 今回は、以下
AWSオートスケールのスケールイン時にサーバー内のログの回収が問題になったりします。 そんな時に、fluentdを導入していると便利ですよね。 気にせず、オートスケールでスケールインが可能になります。 ただ、サーバーが乱列するのでfluentdで収集したログも分かりやすくしたい。 そんな目的で、fluentd設定ファイル内で環境変数が利用できないかと調べました。 fluentd設定で実現したいこと エージェント側のfluentdの設定ファイル内で、タグに環境変数を使用しコンピュータ名を付けたい。 ※ オートスケールでサーバー毎にコンピュータ名が変更するような設定をする(Windowsの場合は、EC2configの設定が必要) 環境・前提条件 AWS上のEC2で、オートスケールを利用しfluentdエージェントとなる今回のサーバーは Windows Server 2012 R2 fluent
米Linux Foundationは2016年11月8日(米国時間)、データ収集のオープンソースソフトウエア(OSS)「Fluentd」が「Cloud Native Computing Foundation(CNCF)」の管理するプロジェクトになったと発表した。Fluentdは古橋貞之氏(写真)が開発を始めたOSSで、現在は米Googleや米Microsoftのクラウドの中でも使われている。 Linux Foundation傘下のCNCFは、「Docker」コンテナを集中管理するOSS「Kubernetes」の開発を主導する団体。KubernetesはGoogleが開発したOSSだが、Googleは2015年7月にKubernetesの開発をCNCFに移行すると発表していた。CNCFは現在、Kubernetes用の運用管理ツールである「OpenTracing」や「Prometheus」の開
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く