タグ

scribeに関するdannのブックマーク (8)

  • 障害に強いscribeサーバ構成と設定 - たごもりすメモ

    scribeによるログ配送についていくらか試したりしつつ実戦投入しているのでその話。 今のところピーク時で20Mbps程度の流量で、100Mbpsを超えてくるようになると流量制限をシビアに考えたり中継サーバを複数台構成にしたり考えることになるのかなーと思っているが、現状はまだそこまでやってない。世の中には考えている人がぜったいいるはずなので話を聞いてみたいなあ。なんか「動かしてみた」レベルの話しかぐぐっても見付からない。悲しい。 サーバ構成 各サーバからログを(ほぼ)リアルタイムにscribedに流すのはいいとして、1台立ててるだけだと障害があったら全て終了してしまう。これはまずいので、複数台構成にする。 scribedはdeliverとcentralの両方で起動する。(設定はもちろん異なる。後述。) 通常は各サーバはすべて deliver サーバに接続してログを送る。deliverサーバ

    障害に強いscribeサーバ構成と設定 - たごもりすメモ
    dann
    dann 2011/02/02
  • Scribeを使ってアクセスログを集約する - スコトプリゴニエフスク通信

    Webサーバーが複数台ある時、そいつらからアクセスログを集めてきてアクセス解析を行いたい時、2010年にもなってlogrotateをかけた後にrsyncするのかなぁと思ってしまうわけです。そういう用途にはFacebookで鍛え上げられたScribeが一番いいと分かっていながら、インストールが非常に面倒なので躊躇していました。./configure && make installでインストールするのも面倒ならば、RPMを作るのはさらに面倒。(Thriftはまだ何とかなるが、fb303、Scribeは当に面倒)しかし、偉大な先人はすでにいるものです。「scribe centos」とかでググってCentOS用のSRPMを作っている人を見つけました。http://www.silassewell.com/blog/2009/05/07/scribe-scalable-real-time-log-a

    dann
    dann 2010/12/08
  • HDFS Scribe Integration

    It is finally here: you can configure the open source log-aggregator, scribe, to log data directly into the Hadoop distributed file system. Many Web 2.0 companies have to deploy a bunch of costly filers to capture weblogs being generated by their application. Currently, there is no option other than a costly filer because the write-rate for this stream is huge. The Hadoop-Scribe integration allows

  • Scribeでログの集約・収集【中編】 - フタなしカンヅメ

    前編ではScribeのインストールと動作確認までおこないました。実際にWebサーバのログをScribeで処理していくわけですが、その前にネットワークを経由して正常にログの受け渡しができるかどうかを調べていきます。 別のサーバにもScribeをインストールして試したほうがいいのですが、今回はローカル内にポートを変えて二つのscribedを起動して検証します。 ## ログサーバ側と仮定 ### ## 今回は設定サンプルのcentralというのを使ってみる $ mkdir /tmp/scribetest $ /usr/local/bin/scribed examples/example2central.conf ## Webサーバ側と仮定 ### ## 別のシェルから同じように設定ファイルを変えて立ち上げる $ mkdir /tmp/scribetest2 $ /usr/local/bin/sc

    Scribeでログの集約・収集【中編】 - フタなしカンヅメ
    dann
    dann 2010/08/17
  • Hadoop at Twitter (Hadoop Summit 2010)

    Kevin Weil presented on Hadoop at Twitter. He discussed Twitter's data lifecycle including data input via Scribe and Crane, storage in HDFS and HBase, analysis using Pig and Oink, and data products like Birdbrain. He described how tools like Scribe, Crane, Elephant Bird, Pig, and HBase were developed and used at Twitter to handle large volumes of log and tabular data at petabyte scale.Read less

    Hadoop at Twitter (Hadoop Summit 2010)
  • Log-Dispatch-Scribe-0.07

    dann
    dann 2010/03/24
  • scribe/src/HdfsFile.cpp at master · facebookarchive/scribe

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    scribe/src/HdfsFile.cpp at master · facebookarchive/scribe
  • 米Facebook、ログデータ収集サーバー「Scribe」をオープンソースに | OSDN Magazine

    米Facebookは10月24日(米国時間)、自社開発のログデータ収集サーバー技術「Scribe」のソースコードを公開した。大量データに対応するよう設計されているという。ライセンスは「Apache Licence 2.0」を採用、SourceForge.netのWebサイトでダウンロードできる。 Scribeは、Facebookが実際に自社インフラで利用しているログ収集システムで、多数のサーバーから寄せられるログデータをリアルタイムに収集する。ユーザー数の拡大に対応するため、自社開発したという。開発にあたり、Facebookがオープンソースとして公開している開発ツール「Thrift」を用いた。PHPPythonC++Javaなどのコードからログメッセージを収集できる。 特徴は拡張性と信頼性。クライアント側を変更せずに拡張が可能で、データセンター間でメッセージをやり取りする際のバッチ処

    米Facebook、ログデータ収集サーバー「Scribe」をオープンソースに | OSDN Magazine
    dann
    dann 2008/10/30
    自社開発のログデータ収集サーバー技術「Scribe」のソースコードを公開
  • 1