タグ

2015年12月7日のブックマーク (11件)

  • Amazon Aurora : パラメーターから見るその詳細(Percona Data Performance Blogより) | Yakst

    Amazon Aurora : パラメーターから見るその詳細(Percona Data Performance Blogより) 出典について この記事はPercona Data Performance Blog内のVadim Tkachenko氏によるAmazon Aurora – Looking Deeper(2015/11/16)を翻訳したものです。 最近、私のPerconaの同僚であるYves Trudeauと業界の仲間であるMarco TusaAmazon Auroraに関する記事を発表しました。実際のところ、Amazon Auroraは最近のホットな話題で、お客様からもAurora技術に関して多くの質問をいただいています。私は自分の意見を明らかにすることを決心しました。個人の実際に手を動かした経験に勝るものはありませんし、それを共有しようと思います。 私がこれから言及する資料

    Amazon Aurora : パラメーターから見るその詳細(Percona Data Performance Blogより) | Yakst
    kamipo
    kamipo 2015/12/07
  • Treasure Data Update 2015 - Hadoop - Qiita

    Treasure DataのHadoop Treasure Dataでは長年Hadoop1(CDH4)を使用してきましたが、太田の投稿にもあるように今年、徐々にHadoop2(HDP2)に移行してきました。Hadoop1でのユーザも残り数社となり、いよいよHadoop1とのお別れも近いこととなりました。そこでどんなことをやったかを振り返りで書いてみようと思います。 いろいろな問題発生 Plazma Treasure Dataでは既にいろんなところに既に出てはいますが、HDFSを使用せず(正確には中間処理には使用している)ストレージはPlazmaというカラムナDBを使用しています。この部分ではHiveの仕様が変わったせいもありIndex Push Downが上手く機能しないなんていう問題も起こりました。 Deadlock and Livelock Treasure Dataはマルチテナントで

    Treasure Data Update 2015 - Hadoop - Qiita
    kamipo
    kamipo 2015/12/07
  • Luigi によるワークフロー管理 - Qiita

    Workflow Hacks! #1 が開催されるなど、データ分析のワークフロー管理が見直されつつある今日この頃ですが、Treasure Data 社内ではこれまでのところ Luigi を主なツールとして利用しています。ここでは Luigi を使ったワークフローがどのようなものであるかを紹介します。 (追記: 2016-09-18)その後、社内ワークフローは Digdag(主にSQLのクエリ実行に利用)、及び Airflow(主にスクリプトの実行に利用)へと置き換わり、Luigi を利用することはほぼなくなりました。 ワークフロー管理ツールとは? データ分析における「ワークフロー管理ツール」とは、データ処理の過程で必要となる一連のタスク(データのロードや、クエリの実行など)を自動化し、管理するために設計されたソフトウェアです。例えば、毎日決まったタスクをスケジュール実行したり、問題が起きた

    Luigi によるワークフロー管理 - Qiita
    kamipo
    kamipo 2015/12/07
  • 第9回[最終回] データパイプラインのためのワークフロー管理 | gihyo.jp

    KPIや応用KPIが決まり、実際に、毎日の運用の中で定期的にデータを更新して、可視化するためには、一連の処理を自動化する必要があります。今回は、データパイプラインを扱うためのワークフロー管理ツールを紹介していきます。 データパイプラインとワークフロー管理 データパイプライン (⁠以下、パイプライン)とは、データ処理を行なう小さなタスク(1回のファイルコピーや、SQLの実行など)を順次実行することにより、最終的に求める結果を得るための一連のプロセスを指します。狭義には、単体のシステム内で完結するパイプラインを指します(SparkやGoogle Cloud Dataflow、など⁠)⁠。 また、広義には、複数のシステムを組み合わせて大きなパイプラインを構成することもあります(MySQLから取り出したデータをRedshiftで集計する、など⁠)⁠。今回、取り上げるパイプラインとは、広義のパイ

    第9回[最終回] データパイプラインのためのワークフロー管理 | gihyo.jp
    kamipo
    kamipo 2015/12/07
  • キャッシュシステムのオリジンサーバアクセスの効率化と Apache Traffic Server

    ヤフー株式会社は、2023年10月1日にLINEヤフー株式会社になりました。LINEヤフー株式会社の新しいブログはこちらです。LINEヤフー Tech Blog こんにちは。システム統括部プラットフォーム開発部配信プラットフォーム部の大久保諒です。 過去に何度か紹介している通り、ヤフーでは静的コンテンツのキャッシュを行うためにオープンソースの HTTP プロキシサーバである Apache Traffic Server (以下 ATS) を用いて行っています。 Yahoo! JAPAN における HTTP/2 への取り組み ヤフーの画像配信システム(CDN)の紹介 さて、 ATS のような HTTP キャッシュを行うサーバにおいて、短時間である一つのオブジェクトに対する大量の HTTP リクエストが来た際に使用できるキャッシュがない場合、オリジンサーバの負荷が増大する問題が存在します。

    キャッシュシステムのオリジンサーバアクセスの効率化と Apache Traffic Server
    kamipo
    kamipo 2015/12/07
  • nginx-lua から fluentd へログを送信する - Qiita

    nginx Advent Calendar 2015 7日目 兼 fluentd Advent Calendar 2015 6日目のエントリです。 nginx-lua (https://github.com/openresty/lua-nginx-module) から fluentd にログを送信する方法を紹介します。 Lua から fluentd へログを送信するライブラリとして fluent-logger-lua というものがありますが、これは LuaSocket ライブラリを使用しているため nginx-lua では使いづらいので、ngx.socket.tcp を使用して自前で送信してみましょう。 fluentd の forward protocol は3パターンの入力フォーマットがあるのですが、一番単純なフォーマットは [tag, time, event] の形式で、この形に Me

    nginx-lua から fluentd へログを送信する - Qiita
    kamipo
    kamipo 2015/12/07
  • Ruby コミッターになりました : sonots:blog

    Ruby コミッターになりました : sonots:blog
    kamipo
    kamipo 2015/12/07
  • ドリコムを支えるデータ分析基盤がTD+AWSに移行した話 - かにぱんのなく頃に

    はじめに これは ドリコムAdventCalendar の7日目です 6日目は、keiichironaganoさんによる iTunes 使用許諾更新のとき一旦キャンセルしてほしい話 です 【その2】ドリコム Advent Calendar 2015 もあります 自己紹介 @ka_nipan 去年の ドリコムを支えるデータ分析基盤 に引き続き、今年もドリコムのデータ分析基盤を担当しています。 分析基盤をTreasure Dataに移行 オンプレ環境の Hadoop からTreasure Data に移行しました。 また、ジョブ管理ツールやBIツールといったサーバーもAmazon EC2 に移行しており、 徐々にオンプレ環境を離れつつあります。 背景 オンプレ環境で Hadoop を運用して3年も経つと考えなければならないのが HW の寿命です。 さてどうしようかとなった時に、ほぼ迷いなく外部

    ドリコムを支えるデータ分析基盤がTD+AWSに移行した話 - かにぱんのなく頃に
    kamipo
    kamipo 2015/12/07
  • FluencyというYet another fluent Java loggerを作った話 - komamitsu.log

    この記事は、Fluentd Advent Calendar 2015 - Qiita の七日目の記事です。 先日、komamitsu/fluency · GitHub というFluentd (in_forward) 用のJava loggerを作ってみました。 元々、fluent/fluent-logger-java · GitHub の開発を見ていたのですが、Fluentd MLで色々と要望があって機能を拡張したい欲が高まったものの既存の実装的に面倒臭そうな感じだったので、ついカッとなってゼロから書いてしまいました。 特徴 特徴としては以下のものがあります。 通常 (fluent/fluent-logger-java · GitHub) より三倍速い fluency_benchmark.md · GitHub 参照 (後述するPackedForwardを利用した場合) Fluentdへの

    FluencyというYet another fluent Java loggerを作った話 - komamitsu.log
    kamipo
    kamipo 2015/12/07
  • Mackerel、Treasure Data、Slackを組み合わせて障害検知の初動をサポートする - Qiita

    背景 GMOペパボでは、社内チャットとして Slack を、サーバリソースの監視やアラートにMackerel を利用しています。 また、最近はログ集約、解析の基盤として Treasure Data の利用も増えてきました。 Slack 導入以前から、IRC をヘビーに利用していたこともあり、chat-ops 文化はあったのですが、通知や bot があたかも自律的に連携しているかのような、ピタゴラスイッチ的な仕組みはあまりありませんでした。(そして、私はそういう仕組みを作るのがすごく楽しい!) ですので、今回、試験的にそういった仕組みを作って導入してみました。(今日から!) 障害検知からの初動 今携わっているサービスでの障害検知は、おおざっぱに書くと次のようになっています。 Mackerel からアラートが Slack にくる bot に実装されてる外形監視コマンドを発行する 問題がありそう

    Mackerel、Treasure Data、Slackを組み合わせて障害検知の初動をサポートする - Qiita
    kamipo
    kamipo 2015/12/07
  • おっぱい募金に行ってきたレポート 〜お金に換えられない貴重な経験〜 - ハニポッポ

    話題のおっぱい募金に行って来たのでレポートします。 箇条書きのまとめは一番下に置いておきます。 プロローグ 一週間で一番疲れが溜まる水曜日ごろの話。 ツイッターを眺めていたら、友達のSちゃんが「おっぱい募金行きたいなあ」とつぶやいていた。 おっぱい募金。聞いた事がある。募金をすると女の子のナマ乳を揉めるという、夢のような募金イベントだ。 男性は「女なら友達の乳とか揉めるんじゃない?」と思うかもしれない。しかし例えそう問われたなら、わたしは敢えて「NO」であると声を大にして言いたい。温泉で女の子同士が後ろからわっしわっしと生乳を揉むなんてことは、所詮二次元の話だ。例え友達同士とはいえ、ナマ乳を揉み、さらに乳首までつまんだりした日には、恐らくドン引きされる。最悪の場合、距離を置かれる。 女性は、男性が思っているほど他人のナマ乳を揉む機会は無い。あったとしても、せいぜい服の上から触る程度だ。おっ

    おっぱい募金に行ってきたレポート 〜お金に換えられない貴重な経験〜 - ハニポッポ
    kamipo
    kamipo 2015/12/07