タグ

Kinesisに関するiga-ninjaのブックマーク (3)

  • Kinesis FirehoseがS3に出力したファイルを1レコードずつ読み込む|ハンズラボ株式会社

    皆々様、お久しぶりのブログ更新です。 Kinesis FirehoseがS3に出力したファイルをPythonでモニャモニャしたいと思っていたところ以下のことでつまづいてしまいました。 1つのファイルに複数レコード出力されている場合、改行(区切り文字)がなく1レコードずつ読み込めない! 改行とか入っていて、1行ずつ読み込むんだろう・・・みたいな想像を勝手にしていたのでちょっとつまずいてしまいました。 AWSのデモデータをKinesisFirehoseに流すと実際のファイルはの中身は下記のようになります。 {"ticker_symbol":"TGH","sector":"FINANCIAL","change":-0.6,"price":65.43}{"ticker_symbol":"JYB","sector":"HEALTHCARE","change":-2.27,"price":42.95}

    Kinesis FirehoseがS3に出力したファイルを1レコードずつ読み込む|ハンズラボ株式会社
  • AWS Application Auto Scaling を使用した Amazon Kinesis Data Streams のスケーリング | Amazon Web Services

    Amazon Web Services ブログ AWS Application Auto Scaling を使用した Amazon Kinesis Data Streams のスケーリング 先日、AWSAWS Application Auto Scaling の新機能を発表しました。Amazon Kinesis Data Stream に対してシャードを自動的に追加・削除するスケーリングポリシーを定義できる機能です。この機能の詳細については、Application Auto Scaling の GitHub リポジトリを参照してください。 ストリーミングの情報が増えると、あらゆるリクエストに対応するスケーリングソリューションが必要になります。逆にストリーミング情報が減る場合も、スケーリングを利用してコストを抑えなければなりません。現在、Amazon Kinesis Data Stre

    AWS Application Auto Scaling を使用した Amazon Kinesis Data Streams のスケーリング | Amazon Web Services
  • AWS Kinesis Stream を大規模データで検証してわかったことの事例紹介

    10分間で数億件を超えるIoT関連のデータをストリーム処理するためのPoC(概念実証)をする機会がありました。そこで経験をしてハマったことなど一部事例として紹介します。 検証の概要 まずは、何のために検証しようとしたかというと... IoT機器からKinesis Streamを通して大量のメッセージを受け取り、分散処理で関連付け処理を検証します。 実証検証の目的としては アーキテクチャ構成の妥当性を検証し コスト軽減のポイントを把握 運用に向けた課題を洗い出す としました。 データと要件の特性 今回の検証用データは自前で生成し投入する必要があり、結構なデータ量となります。 トラフィック量 およそ数十万件/秒(数億件/10分) 時間帯によってバースト(スパイク)が存在する メッセージの関連付け処理を行うが、いつ終点メッセージが届くかわからない。 数分後には処理結果を利用したいのでバッチでは実

    AWS Kinesis Stream を大規模データで検証してわかったことの事例紹介
  • 1