タグ

2015年7月29日のブックマーク (3件)

  • Amazon謹製RDBMS「Amazon Aurora」がリリースされました!!! | DevelopersIO

    森永です。 のんのんびよりが心の癒やしです。 さて、待ちに待ったあいつがやって来ました。そう、Amazon Auroraです。 いつものごとく東京リージョンには来ていませんが、ひとまず触ってみました。 Amazon Auroraとは Amazonが設計開発を行っているRDBMSです。 MySQL互換で、商用に耐えうる高い可用性を持っているとのことです。 特徴として ストレージが自動で10GB〜64TBまでスケールする AZまたぎでコピーし、更に各AZで2つのコピーを作成 自動修復もできちゃう SSDベースのディスクアレイに10GBずつ分散して書き込み 継続的にバックアップがとられていてピンポイントでのリストアが可能 ほとんどのMySQLを使用したアプリケーションはそのまま使える などがあげられます。 RDBMSの弱点をなくそう、減らそうという意気込みが感じられます。 起動してみた Auro

    Amazon謹製RDBMS「Amazon Aurora」がリリースされました!!! | DevelopersIO
    nakunaru
    nakunaru 2015/07/29
  • BigQuery の課金仕様と注意点をまとめてみた(2015-07 時点) - Qiita

    最初は安く収まっていた BigQuery の費用もだんだん膨らんできた ので、自分(社内)用にまとめたものです 広告事業(アドネットワーク)のログを BigQuery に入れているので、それなりにデータ量も増えてきて、こういうことも考えていかないといけなくなってきました どの操作にお金がかかるのか データを保存しておく データを Streaming Insert(≒ 追加)する データを走査して取得する クエリを発行する データの保存 $0.020 per GB, per month 1 TB を 1 ヶ月保持すると、$20 かかる データの Streaming Insert $0.01 per 100,000 rows until August 12, 2015. After August 12, 2015, $0.01 per 200 MB, with individual rows

    BigQuery の課金仕様と注意点をまとめてみた(2015-07 時点) - Qiita
    nakunaru
    nakunaru 2015/07/29
  • 大きなテキストファイルをawkで処理するときにcatで投げ込むと速い理由 - ablog

    以下、長々と書いてますが、結論は ”私の環境で”大きなテキストファイルをawkで処理するときにcatで投げ込むと速い理由 - ablogに書いてます はじめに awk file より cat file|awk のほうが速いという以下のブログエントリが興味深いので調べてみました。 ちなみに cat file|awk が速くなる環境は稀で、巷では awk file のほうが速い環境のほうが多いようで、どちらが速いかは環境依存です。 [root@localhost sample]# cat command1 awk '$5 ~ /((26|27|28|29|30)\/Jun|(01|02|03)\/Jul)/{ print }' sample.txt > result1.txt (中略) [root@localhost sample]# time sh command1 real 0m53.92

    大きなテキストファイルをawkで処理するときにcatで投げ込むと速い理由 - ablog
    nakunaru
    nakunaru 2015/07/29