エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
大量のデータは少しずつ処理しよう
やりたいこと S3に置かれたサイズが大きめなCSVデータをLambdaで処理して再度S3にアップロードしたい。 ... やりたいこと S3に置かれたサイズが大きめなCSVデータをLambdaで処理して再度S3にアップロードしたい。 しかし、一度にファイルを取得してしまうと、メモリ不足になって処理ができません。 そういう時は、S3からデータをストリームとして読み込み、都度処理しながら、別のS3バケットにストリームとしてアップロードするようにしましょう。 ストリーム形式で随時処理する (元コードから抜粋しています) const uploadStream = () => { const pass = new PassThrough(); return { writeStream: pass, promise: new Upload({ client: s3Client, params: { Bucket: BUCKET_NAME_A, Key: "sample.txt", Body: pass, }, }).do

