![](https://cdn-ak-scissors.b.st-hatena.com/image/square/a7c8e035f72aeb434a6cf7069e4deb83939a5397/height=288;version=1;width=512/https%3A%2F%2Fcdn.qiita.com%2Fassets%2Fqiita-fb-fe28c64039d925349e620ba55091e078.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Treasure Data の集計結果を Elasticsearch に保存して利用する - Qiita
毎日いろんなデータを取り、集計し、可視化し、分析し、日頃の業務改善のアイディアを考えたりすると、... 毎日いろんなデータを取り、集計し、可視化し、分析し、日頃の業務改善のアイディアを考えたりすると、仕事してる気になって良いですね。 データの保存と集計を Treasure Data 様にお任せできるのは、本当にすごいし便利です。 最初は hive や presto のクエリを実行するスクリプトを LL で書いて cron で回して自前の MySQL に保存する等やっていたのですが、なんかそれは色々面倒でした。実は Treasure Data のクエリは、定期実行スケジュールや、集計結果の保存先が指定できることを知りました。 そこで、実行結果を HTTP PUT で WebDAV に保存した上で、json を変換して Elasticsearch に送り、最終的に Kibana で見れるようにしてみました。 クエリの設定 毎時実行されるようにスケジューリングする WebDAV に HTTP PU
2015/12/04 リンク