前回、エクスペリメンタルビルドで公開された「Redshiftコンポーネントの使いドコロ」をお伝えしましたが、今回は実際にフローを作って、つないでみたいと思います。 まず、この3つのフローを作成してみます。 データをS3にパラレルで転送するフロー Redshiftにコピーするフロー Redshiftのデータを絞り込んでExcelのピポッドテーブルに出力するフロー データをS3にパラレルで転送するフロー さっそく1つ目の「S3にパラレルで転送するフロー」です。 フローが2つありますが、パラレルで転送するので、1つずつ動くものはサブフローとして定義します。 今回は登録データとしてシステムのログファイルを使いました。1ファイルに何万行とあるファイルを分割で読み込み、指定した行数単位でパラレル実行しS3に保存しています。 この際、GZipで圧縮することで転送量を大幅に軽減することができます。 Red