
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
GCPのDataFlowを簡単に触ってみた記録 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
GCPのDataFlowを簡単に触ってみた記録 - Qiita
Intro Google Cloud Dataflowを触ることがあったので、備忘も兼ねてどんな感じだったか記録を残す。 Goo... Intro Google Cloud Dataflowを触ることがあったので、備忘も兼ねてどんな感じだったか記録を残す。 Google Cloud Dataflowって? 簡単に言うと、ストリーミングデータやらの操作・管理を取り持ってくれるGCPのサービスです。 今回はPubSubで受けたデータをDataFlowを介してCloudStrageに配置しようと思います。 ログやトラッキングデータのような物が不特定多数postされ、それを保持したり後の分析に利用するようなケースを想定しています。 1.Pub/Subにトピックを作成 Pub/Subってまたストレートな名前ですが、こちらもGCPのサービスです。所謂メッセージングというかキューというか。 今回のデータの始点、ある意味トリガーとなります。 とりあえず普通にGUIのコンソールから名前をつけるだけです。 2.CloudStorageにバケッ