ストリームデータ処理技術勉強会 発表資料 https://futureofdata.connpass.com/event/60300/
![Kafka Summit NYCに見るストリーミングデータETLの話 #streamdatajp](https://cdn-ak-scissors.b.st-hatena.com/image/square/8ffb6ffee3459cbb66177c9f8f11eec631f7c387/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2Fstreamdatakafkasummitetl-170804090749-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
ストリームデータ処理技術勉強会 発表資料 https://futureofdata.connpass.com/event/60300/
AWS Big Data Blog Best Practices for Running Apache Kafka on AWS NOTE: This blog post was written before the launch of Amazon MSK, a fully managed, highly available, and secure service for Apache Kafka. We recommend using Amazon MSK instead of running your own Apache Kafka cluster in EC2. If you need to run Apache Kafka on EC2 then you will find this blog is still useful. ——————————————- This post
Developers Summit2018でのスライド資料です "Apache Kafkaによるスケーラブル アプリケーション開発"
ちょっと前なのですが、JJUG CCC 2017 Fallの時に@bufferingsさんの発表を見ていて、内容以外で気になっていたことがありまして。 Spring BootとKafkaでCQRS それは、「あのKafkaを操作しているUIなに??」 すごく便利そうだったので、内容以外にもずーっとそっちも見ていました(笑)。で、なにを使っているかは気付いたものの、 それからあまり時間が取れていなかったので、今頃ですが試そうかなと思います。 ちなみに、自分はTopic内のデータを見たい場合はTrifecta、そうでない場合はKafka Managerを使っていました。 GitHub - ldaniels528/trifecta: Trifecta is a web-based and CLI tool that simplifies inspecting Kafka messages and
Apache Kafka: Producer, Broker and Consumer2017年は生まれて始めてApache Kafkaを本格的に業務利用(PoCではなく本番運用)した年でした。Apache Kafka的なメッセージングミドルウェアそのもののは、社内的な事情でよく使っていたのでその使い勝手に対して困惑はほとんど無かったですし、ミドルウェアとして非常に安定しているため、Kafkaクラスタそのものでの不具合らしい不具合が発生したことは一度もありませんでした。 しかし、Kafkaのトピック設計などに関してのベストプラクティスは事例ベースでもあまり見かけたことがなく、チームメンバーと悩むことも多かったです。このストーリーでは、主にKafkaを利用したアプリ設計で考えたことや失敗したことを振り返りつつ共有します。なお、パーティション数や各種バッファサイズなどのチューニング要素は今回取
NOTICE An initial version of this page has been added to the official documentation here. It still needs a lot of work. However, because it is generated from the code may be more up to date in some cases. Contributions to improve this documentation is welcome and encouraged. Some tasks are tracked here: KAFKA-3360 - Getting issue details... STATUS IntroductionThis document covers the protocol impl
Apache Kafkaには、Consumer Groupという概念があります。 Introduction / Consumers Consumerにラベル付けをすることで、Consumerをグルーピングします。こうすることで、Brokerから配信されるレコードが、そのConsumer Group内の ひとつのConsumerに配信されるようになります。 上記のドキュメントのように、2つのConsumer Groupがあった場合は、2つのConsumer Group内のどれかひとつずつのConsumerインスタンスが レコードを受け取ります。 仮に全Consumerが同じConsumer Groupに属して入れば単純に負荷分散、全Consumerが異なるConsumer Groupであれば ブロードキャストのような扱いになります。 参考) Java Clientで入門する Apache K
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く