並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 59件

新着順 人気順

amazon-s3の検索結果1 - 40 件 / 59件

amazon-s3に関するエントリは59件あります。 awss3AWS などが関連タグです。 人気エントリには 『S3のコストを大幅に削減した話 - Gunosy Tech Blog』などがあります。
  • S3のコストを大幅に削減した話 - Gunosy Tech Blog

    広告技術部のUTです。 最近はカービィディスカバリーをゆっくりやってます 概要 過去の失敗 どうやったか 仕組み 結果 まとめ 概要 昨今ではデータドリブンな意思決定を重視する企業がどんどん増えており、データを活用することにより事業成長へのインパクトを出そうとしています。 データを事業へと活用するためには、蓄積されるデータを分析するために保管しておく必要があります。 弊社も創業時からデータを蓄積し事業に活用することに力を入れてきた企業の一つであり、日々大量のログが収集されています。 またAWSアカウントを複数運用していますが、一番データ量の多い広告アカウントのS3にはペタバイトレベルのデータが保管されています。 普段何気なく使っているデータレイクとしてのS3ですが、少量であれば無視できるくらい小さいので、コストを気にせず使っておられる方も多いのではないでしょうか? そのようなS3でも巨大な

      S3のコストを大幅に削減した話 - Gunosy Tech Blog
    • AWS、Amazon S3やEFSを爆速にする「Amazon File Cache」発表。複数のストレージを単一のビューでアクセス可能に

      Amazon Web Services(AWS)は、8月10日に開催したオンラインイベント「AWS Storage Day 2022」で、新サービス「Amazon File Cache」を発表しました。 Amazon File Cacheはその名の通りAWSで利用できる高速なファイルベースのキャッシュです。特徴は2つあります。 1つ目は、ミリ秒以下のレイテンシと数百ギガバイト/秒のスループットという高い性能です。Amazon S3やNFSサーバといったストレージのキャッシュとして利用することで、これらのストレージに対するアクセスを高速化できます。 2つ目は複数のストレージに対する単一のファイルビューを提供できることです。AWSの説明によると、Amazon File CacheはAmazon S3やAmazon EFSなどAWS上のストレージだけでなく、AWSからオンプレミス上のファイルサー

        AWS、Amazon S3やEFSを爆速にする「Amazon File Cache」発表。複数のストレージを単一のビューでアクセス可能に
      • 私がやった Amazon S3 コストカット全ステップ | CyberAgent Developers Blog

        本記事は CyberAgent Advent Calendar 2022 23日目の記事です。 「節約は固定費から。」 こんにちは、しゅん(@MxShun)です。 今年11月に中途入社、AI事業本部オペレーションテクノロジーに仲間入りしました。 今回は、年間にして 1,200 万円削減 した Amazon S3 のコストカット全ステップ を紹介します。 目次 オペレーションテクノロジー AWSコストの見直し S3コスト対象 S3コスト分析 1. ストレージ容量の削減 2. ストレージクラスの見直し まとめ オペレーションテクノロジー 私がジョインしたオペレーションテクノロジーは、 サイバーエージェント 連結売上高の53%(2022年通期決算時点)を占めるインターネット広告事業売上を最大化する システム開発 大規模インターネット広告運用を可能にする 社内システム開発 の役割を担っています。

          私がやった Amazon S3 コストカット全ステップ | CyberAgent Developers Blog
        • S3にあるALBログの調査はAthenaよりDuckDBのほうが簡単 - road288の日記

          AWSのALB(Application Load Balancer)のログはS3に置かれるが、この中身をサクッと調べたいとき、Athenaを使う方法が標準的で、下記で案内されているようにパーティション射影(Partition Projection)でテーブルを作ってAthenaからクエリする。 パーティション射影を使用して Athena で ALB アクセスログ用テーブルを作成する - Amazon Athena 私も従来はその方法を使っていたが、Athenaはブラウザから使うと動作がもっさりしているし、決まったクエリを1回きり実行して結果を取得したいだけのときならまだしも、探索的にクエリを何発も実行したいときには使い勝手が悪い。 最近他のプロジェクトでDuckDBを使うようになって、使い勝手の良さに感動していたが、DuckDBはALBのログを探索的に調べたいときにもめっちゃ使えると思った

            S3にあるALBログの調査はAthenaよりDuckDBのほうが簡単 - road288の日記
          • S3 互換オブジェクトストレージまとめ

            概要 S3 互換オブジェクトストレージの サービス を自分のためにまとめている。サービスとして提供されているのが前提で、 自前運用は範囲外 。 目的 以下の内容に絞って調べている。 日本リージョンの有無 egress の費用 容量の費用 追加調査予定 PutObject 対応 PresignedGetObject 対応 S3 互換 S3 互換の条件は s3cmd や aws sdk s3 がそのまま利用できる事。細かい互換性は気にしない。 比較用の AWS S3 https://aws.amazon.com/jp/s3/pricing/ 最小プラン Tokyo / Osaka リージョンあり 1 GiB 追加の egress 転送量は 0.114 ドル 1 GiB の追加容量は 0.025 ドル TODO SLA 書いてるのと書いてないのがあって拾いにくい 対象外 Azure は S3 互

              S3 互換オブジェクトストレージまとめ
            • AWS のサーバーレスと Amazon S3 署名付き URL、クライアントサイド JavaScript で大きなサイズの複数ファイルの一括アップロード・ダウンロード機能を実現する方法 | Amazon Web Services

              Amazon Web Services ブログ AWS のサーバーレスと Amazon S3 署名付き URL、クライアントサイド JavaScript で大きなサイズの複数ファイルの一括アップロード・ダウンロード機能を実現する方法 はじめに 昨今のテクノロジーの進化は、これまで以上に、私たちがどのように働き、どのように生活するかを再定義しています。この進化の中心には、クラウドコンピューティングが存在しており、AWS はこれまで、クラウドコンピューティングのパイオニアとして、様々な機能を提供し続け、業界をリードしてきました。その機能群を支えるエコシステムの一部であるサーバーレスアーキテクチャは、スケーラブルで信頼性が高く、メンテナンスの作業負担が低いアプリケーションの開発を可能にし、ユーザーのビジネスやプロジェクトが円滑に進行するようサポートします。 AWS のサーバーレスの代表的なサービ

                AWS のサーバーレスと Amazon S3 署名付き URL、クライアントサイド JavaScript で大きなサイズの複数ファイルの一括アップロード・ダウンロード機能を実現する方法 | Amazon Web Services
              • AWS、LinuxからAmazon S3をファイルシステムとしてマウントし利用できる「Mountpoint for Amazon S3」正式公開

                Amazon Web Services(AWS)は、オブジェクトストレージサービスとして提供しているAmazon S3のバケットをLinuxからマウントし、ローカルのファイルシステムと同様にさまざまな操作を可能にする「Mountpoint for Amazon S3」を正式に公開しました。 基本的にAmazon S3の操作はS3専用のAPIを呼び出すことによって行いますが、今回公開されたMountpoint for Amazon S3はそうした操作を不要にし、いくつかの制限はあるものの、Amazon S3のバケットをまるでローカルのファイルシステムのように扱えるようになります。 これにより、例えばAmazon EC2のインスタンスからAmazon S3のバケットへの大規模なデータの保存や参照などが容易に可能になります。 下記はAWSが公開した動画から、実際にMountpoint for A

                  AWS、LinuxからAmazon S3をファイルシステムとしてマウントし利用できる「Mountpoint for Amazon S3」正式公開
                • microCMS + Gatsby + GitHub Actions + S3 でJamStackのチュートリアル | DevelopersIO

                  What is Jamstack? ここ数年でよく聞くようになったワード。 Jamstackとはウェブサイトを構築および運用するための、技術の組み合わせです。 JavaScript・API・事前にレンダリングされたMarkupの組み合わせでJamStackとのこと。 (以前はJAMStackといってたけど、最近はJamstackだったりする) Jamstackは、 「ウェブをより速く・より安全に・より簡単に拡張できるように設計されたアーキテクチャ」であり、 生産性を最大化するツールやフレームワーク、ライブラリやワークフローなどを 組み合わせて構築されるもの、とのことです。 ※jamstack.orgより 従来のCMSではアクセスがあったとき動的にページを生成しますが、 Jamstackではデプロイ以前に必要なページを生成します。 具体的には、下記。 Webサイトのフロントエンド全体(HTM

                    microCMS + Gatsby + GitHub Actions + S3 でJamStackのチュートリアル | DevelopersIO
                  • アンチウイルスソフト Antivirus for Amazon S3 を本番環境に導入してみてわかったメリット・デメリット - ANDPAD Tech Blog

                    こんにちは。SREチームの吉澤です。 アンドパッドでは最近、AWSのS3バケット上のファイルをスキャンするために、アンチウイルスソフト Antivirus for Amazon S3 を本番環境に導入しました。その結果、私たちの要件はほぼ全て満たされたうえに、従来比で大幅なコスト削減を実現できました。 Antivirus for Amazon S3について日本語で書かれた記事はまだ少ないですが、S3に対するウイルススキャンが求められるケースでは、導入を検討する価値があるソフトです。 そこで、今回はこのAntivirus for Amazon S3の概要、私たちが本番環境に導入してみてわかったメリットやデメリット、そしてこのソフトが適した状況をご紹介します。 背景 S3に対するウイルススキャンが必要な理由 Antivirus for Amazon S3の導入前に利用していたソフト Antiv

                      アンチウイルスソフト Antivirus for Amazon S3 を本番環境に導入してみてわかったメリット・デメリット - ANDPAD Tech Blog
                    • S3へのファイル転送を高速化する手順 - skymatix Developers Blog

                      システムエンジニアの椎葉です。 ファイル数が多くなるとファイルの転送に時間がかかってしまいます。 ファイル転送の改善で処理時間やEC2のコストを削減することができます。 今回の例でも30%ほど転送時間&コストを削減することができているので是非参考にしてみてください。 設定項目 今回改善するために変更する設定は下記の2つです。 項目名 説明 max_concurrent_requests 同時に実行できるリクエストの最大数を制御。この設定により、バケットへの同時アクセスを制御することができる。デフォルト:10 max_queue_size タスクキュー内の最大タスク数を制御。タスクが多くなると速度も速くなるが、比例して多くのメモリが必要になる。デフォルト:1000 設定変更のコマンド 設定を変更する際は下記のコマンドを実行します。 aws configure set default.s3.m

                        S3へのファイル転送を高速化する手順 - skymatix Developers Blog
                      • S3は巨大なKVSなのでRailsのCache storeとしても使える | うなすけとあれこれ

                        S3 is a Key-Value store Amazon S3 は、一意のキー値を使用して、必要な数のオブジェクトを保存できるオブジェクトストアです。 Amazon S3 オブジェクトの概要 - Amazon Simple Storage Service Amazon S3の基礎技術は、単純なKVS(Key-Value型データストア)でしかありません。 Amazon S3における「フォルダ」という幻想をぶち壊し、その実体を明らかにする | DevelopersIO Amazon S3の実体はKey-Value storeという事実は、既にご存知の方々にとっては何を今更というようなことではありますが、それでも初めて聞くときには驚かされたものです。 さて、Key-Value storeと聞いて一般的に馴染みが深いのはRedisでしょう。そして、RailsにおけるRedisの役割としてCac

                          S3は巨大なKVSなのでRailsのCache storeとしても使える | うなすけとあれこれ
                        • EC2からS3へアクセスする4つのルートとコスト - NRIネットコムBlog

                          こんにちは佐々木です。以前、『AWSのグローバルIPの空間はインターネットなのか?』と題して、AWSのパブリックIP同士の通信が何故AWSのプライベートネットワークの通信になるのかという話をしました。その中で、PrivateLinkの必要性はどう考えるべきなのかという事に、少しだけ言及しました。今回は、そこをもう少しだけ深ぼって見てみましょう。ユースケースとしても多いであろう、EC2からS3の通信の例でみてみます。 tech.nri-net.com EC2からS3へアクセスする4つのルート EC2からS3へアクセスするルートとしては次の4つがあります Internet Gateway NAT Gateway VPC Endpoint(Gatewayタイプ) PrivateLink(Interfaceタイプ) それぞれの構成と利用に関わる費用をみてみましょう。なお、今回ご紹介するコストは、S

                            EC2からS3へアクセスする4つのルートとコスト - NRIネットコムBlog
                          • クラウドにおける安全なデータの廃棄 | Amazon Web Services

                            Amazon Web Services ブログ クラウドにおける安全なデータの廃棄 クラウドにおける統制をお客様が考慮する場合、基本的な考え方は大きく異なるものではありません。ただし、クラウドならではの統制を考慮すべきケースがあることも事実です。その際には、従来のオンプレミスのやり方を無理にクラウドに当てはめようとしてもうまくは行きません。大事なことはその統制が何を目的としていたのかに立ち返り、その上で、New normal(新しい常識)にあった考え方や実装をすすめる必要性を理解し、実践することです。この投稿では、メディアやデータの廃棄を例として、セキュリティのNew normalを考えていきます。 メディア廃棄における環境の変化 データのライフサイクルに応じた情報資産の管理は多くのお客様の関心事項です。 オンプレミスの統制との変更という観点では、メディア廃棄時の統制は従来のオンプレミス環

                              クラウドにおける安全なデータの廃棄 | Amazon Web Services
                            • 歴史・年表でみるAWSサービス(Amazon S3編) -単なるストレージではない機能・役割と料金の変遷- - NRIネットコムBlog

                              本記事はNRIネットコム Advent Calendar 2021 1日目の記事です。 🎄 0日目 ▶▶ 本記事 ▶▶ 2日目 🎅 小西秀和です。 現在、AWSでは年に一回のAWS re:Inventというイベントの真っ最中で多数の新サービスの発表やセッションがおこなわれています。 そんな状況ですが、今回は当ブログ初のアドベント企画ということで、最新情報とは真逆のアプローチで記事を書いてみました。 最新情報を追うことに疲れた方はこちらの記事で、自分の歴史と照らし合わせながらチルアウトしてみてはいかがでしょうか。 さて、今回のテーマはAmazon S3の年表を作って歴史やアップデートを振り返ろうというものです。このテーマにしたきっかけは2つあります。 まず、1つ目は2006年3月14日にサービス開始したAmazon S3が今年、2021年3月14日に15周年を迎えたことです。 そして2つ

                                歴史・年表でみるAWSサービス(Amazon S3編) -単なるストレージではない機能・役割と料金の変遷- - NRIネットコムBlog
                              • Amazon S3がこれまでの「結果整合性」から「強い一貫性」サポートへ。データを更新直後でも最新データの読込みが保証されるように

                                Amazon S3がこれまでの「結果整合性」から「強い一貫性」サポートへ。データを更新直後でも最新データの読込みが保証されるように Amazon Web Services(AWS)は、オブジェクトストレージサービスのAmazon S3で「Strong Consistency(強い一貫性)」をサポートすることを明らかにしました。 すでにAmazon S3で有効になっており、追加料金は発生せず、性能低下もないとのこと。AWS re:Invent 2020の基調講演では発表されておらず、ブログで発表されました。 これまでAmazon S3では、データ整合性がつねに保証されるものではない「結果整合性」のみをサポートしていました。そのため、データをAmazon S3へ保存した直後やデータの変更を行った直後に別のプロセスからそのデータにアクセスしようとすると、まだ保存されていない、あるいは変更されてい

                                  Amazon S3がこれまでの「結果整合性」から「強い一貫性」サポートへ。データを更新直後でも最新データの読込みが保証されるように
                                • 【日本初導入】 AWS Outposts ラックを徹底解説 第1回 〜導入・利用方法の概要〜 - NTT Communications Engineers' Blog

                                  はじめに こんにちは、イノベーションセンターの福田・鈴ヶ嶺です。 普段はクラウドサービスをオンプレ環境でも同様のUI/UXで使用を可能とするハイブリッドクラウド製品の技術検証をしています。 本記事は、今回日本で初めて導入した AWS Outposts ラックの仕様、導入方法、利用方法について徹底解説します。次の画像は、実際に導入した AWS Outposts ラックの画像です。 NTT Com では「Node-AI on AWS Outposts」に関するニュースリリースを2022年3月14日に発表いたしました。 今後は「Node-AI on AWS Outposts」を軸に、自社の多様なサービスやソリューションと組み合わせることで、AWSをご利用されるお客さまのデジタルトランスフォーメーションを支援していきます。 国内初、「AWS Outposts」に自社データ分析ツールを組み込んだソリ

                                    【日本初導入】 AWS Outposts ラックを徹底解説 第1回 〜導入・利用方法の概要〜 - NTT Communications Engineers' Blog
                                  • Amazon S3のデータを直接検索できる「MongoDB Atlas Data Lake」正式リリース。データベースへの転送不要、MongoDBのクエリ言語を直接実行

                                    Amazon S3のデータを直接検索できる「MongoDB Atlas Data Lake」正式リリース。データベースへの転送不要、MongoDBのクエリ言語を直接実行 MongoDBは、Amazon S3に保存されているデータをそのままデータベースへ転送することなく、直接MongoDBのクエリ言語で検索可能にするクラウドサービス「MongoDB Atlas Data Lake」の正式リリースを発表しました。 発表は同社がオンラインで開催したイベント「MongoDB.Live 2020」で行われました。 通常、データベースで検索や分析の対象となるデータはデータベース内に保存されているデータであるため、ファイルサーバやオブジェクトストレージなどに保存されているJSONデータやCSVファイルなどは、何らかの方法でデータベースへインポートする必要があります。 MongoDB Atlas Data

                                      Amazon S3のデータを直接検索できる「MongoDB Atlas Data Lake」正式リリース。データベースへの転送不要、MongoDBのクエリ言語を直接実行
                                    • 絵で見て 3分でおさらいする Amazon S3 のバージョニングとライフサイクル | DevelopersIO

                                      コンバンハ、千葉(幸)です。 S3 のライフサイクルやバージョニング、使ってますか? 私は「あぁそれね、4年くらい前に完全に理解しましたよ」という気分でいたのですが、いざ きちんと思い出そうとすると 90分ほどかかってしまいました。 3歩あるくと大抵のことを忘れる私としては、都度 90分かけて思い出すわけには行きません。今後は 3分くらいで思い出せるよう、まとめてみることにします。 まとめ バージョニング はバケット単位で設定する ステータスは以下のいずれか 無効 有効 停止 「以前のバージョン」のオブジェクトは復元できる 削除マーカーによる論理的な削除という状態が生まれる ライフサイクルはスコープを限定可能で、ルールを複数設定できる 選択できるアクションは以下 現行のバージョンのストレージクラスの移行 以前のバージョンのストレージクラスの移行 現行のバージョンの失効 以前のバージョンの完

                                        絵で見て 3分でおさらいする Amazon S3 のバージョニングとライフサイクル | DevelopersIO
                                      • [速報]Amazon S3にファイルを置くとAmazon Redshiftに自動で取り込まれる「Amazon Redshift auto-copy from S3」発表

                                        [速報]Amazon S3にファイルを置くとAmazon Redshiftに自動で取り込まれる「Amazon Redshift auto-copy from S3」発表 Amazon Web Services(AWS)は、米ラスベガスで開催中の年次イベント「AWS re:Invent 2022」で、Amazon S3からAmazon Redshiftへデータを自動的にコピーする新サービス「Amazon Redshift auto-copy from S3」を発表しました。 これによりETLやデータロードのためのツールなどを用いることなく、簡単にAmazon Redshiftへデータを流し込めるようになります。 Amazon S3にファイルを置くとRedshiftに自動で取り込まれる Amazon Redshiftは大規模なデータを保存し分析を行う、データウェアハウスの機能を提供するサービス

                                          [速報]Amazon S3にファイルを置くとAmazon Redshiftに自動で取り込まれる「Amazon Redshift auto-copy from S3」発表
                                        • 特定の IAM ロールのみアクセスできる S3 バケットを実装する際に検討したあれこれ | DevelopersIO

                                          今回は S3 バケットへのアクセスを特定 IAM ロールからのみに限定して利用する機会がありましたので、設定方法と検討したあれこれをご紹介します。 やりたいこと 構成図はこんな感じ 前提条件 IAM ロールと S3 バケットは同一アカウントに存在する IAM ロールには S3 を管理する権限がアタッチされている 今回は AmazonS3FullAccess ポリシーをアタッチしています NotPrincipal でやってみる 「特定 IAM ロール以外は制限する」という考え方でパッと思いつくのは、以下のような NotPrincipal で制限する方法かと思います。 { "Version": "2012-10-17", "Statement": [ { "Effect": "Deny", "NotPrincipal": { "AWS": "arn:aws:iam::xxxxxxxxxxxx:

                                            特定の IAM ロールのみアクセスできる S3 バケットを実装する際に検討したあれこれ | DevelopersIO
                                          • Amazon S3 Object Lambdaが提供開始、S3から取得するデータの処理が可能に

                                            米Amazon Web Servicesは、Amazon Simple Storage Service(S3)から取得したデータをアプリケーションへ返す前に、独自のコードを追加して処理できる「Amazon S3 Object Lambda」の提供を、3月18日(現地時間)に開始した。 Amazon S3 Object Lambdaは、既存のアプリケーションと連携してAWS Lambda関数を使用し、Amazon S3から取得するデータを自動的に処理・変換する。Lambda関数は標準のS3 GET requestを使ってインラインで呼び出せるので、アプリケーションコードを変更する必要はない。 Amazon S3 Object Lambdaの使用によって、以下のようなユースケースの単純化が可能になる。 分析環境または非実稼働環境で個人を特定できる情報を編集 XMLからJSONへの変換など、デー

                                              Amazon S3 Object Lambdaが提供開始、S3から取得するデータの処理が可能に
                                            • S3のアクセスコントロールリスト(ACL)の基礎を学ぼう | DevelopersIO

                                              S3のアクセスコントロールリスト(ACL)とは ACLを一言でいうと 「被付与者」に「バケット・オブジェクト」への「アクセス」を許可するもの です。 「被付与者」や「アクセス」には色々な種類があります。 以降で説明していきます。 被付与者(Grantee) 被付与者(Grantee) は バケット・オブジェクトへアクセスするユーザー を指します。 被付与者の実態は 「AWSアカウント」もしくは「事前定義済み S3グループ」 です。 AWSアカウント(正規ユーザーID) S3の ACLにおいては 正規ユーザーID を使ってAWSアカウントを表します。 正規ユーザー ID は、 AWS アカウント に関連付けられています。 この ID は、 79a59df900b949e55d96a1e698fbacedfd6e09d98eacf8f8d5218e7cd47ef2be のような長い文字列です。

                                                S3のアクセスコントロールリスト(ACL)の基礎を学ぼう | DevelopersIO
                                              • 「Amazon S3 インターフェースエンドポイント(PrivateLink)ではプライベート DNS をサポートしていません」 の意味を絵をかいて腹落ちさせてみた | DevelopersIO

                                                「Amazon S3 インターフェースエンドポイント(PrivateLink)ではプライベート DNS をサポートしていません」 の意味を絵をかいて腹落ちさせてみた 2023/3/15追記 「サポートしていません」の時代に本エントリを書いたのですが、アップデートによりサポートされるようになりました。その内容を以下エントリに書きました。 以降の記述は当時の内容としてお楽しみください。上記のエントリとあわせて読むとより理解が捗ると思います。 コンバンハ、千葉(幸)です。 先日、Amazon S3 向けの PrivateLink(インターフェースエンドポイント)がサポートされました。 これによりオンプレミスから S3 へのプライベートアクセスが、簡単に構成できるようになりました。 注意点として、S3 インターフェースエンドポイントではプライベート DNS 名が使用できないというものがあります。

                                                  「Amazon S3 インターフェースエンドポイント(PrivateLink)ではプライベート DNS をサポートしていません」 の意味を絵をかいて腹落ちさせてみた | DevelopersIO
                                                • AWSがAmazon S3でデータ暗号化の自動適用を開始、暗号化されていない既存バケットはどうなる?

                                                  Amazon Web Services(AWS)は2023年1月5日(米国時間)、オブジェクトストレージサービス「Amazon S3」で、オブジェクト暗号化の自動適用を開始したと発表した。世界中全てのリージョンが対象。これにより、暗号化設定のし忘れに起因するデータ漏洩(ろうえい)を防止する。 暗号化では、AWSが2011年より提供してきた「Amazon S3 Server Side Encryption(SSE-S3)」をデフォルトで適用する。SSE-S3ではS3による鍵管理の下で、256ビット AESを用いたデータ暗号化を行う。全ての暗号化、復号、鍵管理のプロセスは、意識せずに利用できる。今回の変更により、ユーザー側は暗号化について何の設定や操作をすることなく、自動的にSSE-S3を利用できることになる。 「2023年1月5日以降、Amazon S3への全ての新規オブジェクトのアップロー

                                                    AWSがAmazon S3でデータ暗号化の自動適用を開始、暗号化されていない既存バケットはどうなる?
                                                  • Announcing Amazon Relational Database Service (RDS) Snapshot Export to S3

                                                    You can now export Amazon Relational Database Service (Amazon RDS) or Amazon Aurora snapshots to Amazon S3 as Apache Parquet, an efficient open columnar storage format for analytics. The Parquet format is up to 2x faster to export and consumes up to 6x less storage in Amazon S3, compared to text formats. You can analyze the exported data with other AWS services such as Amazon Athena, Amazon EMR, a

                                                      Announcing Amazon Relational Database Service (RDS) Snapshot Export to S3
                                                    • Python で RDS に格納されている各種ログをダウンロードする - 継続は力なり

                                                      タダです. AWS 利用料のうち CloudWatch Logs への取り込みが高くかかっていました( DataProcessing-Bytes という項目).そこで,下記のページを参照して調べてみたところ一番容量があったのが Aurora のログでした.そのログを CloudWatch Logs に出力せずダウンロードし,S3 などにアップロードしていけばコスト削減に繋がりそうです.この記事では,ダウンロードを Python でやってみた内容をまとめていきます. aws.amazon.com Python で RDS ログダウンロードのための手段 DownloadCompleteLogFile でのログダウンロードを試してみる まとめ Python で RDS ログダウンロードのための手段 boto3 のドキュメントを見てみたらログダウンロードをするのに, download_db_log

                                                        Python で RDS に格納されている各種ログをダウンロードする - 継続は力なり
                                                      • AWS CLIを利用し、Amazon S3バケットのpre-signed urlsを取得してみました | DevelopersIO

                                                        こんにちは、イムチェジョンです。 今回のブログではS3バケットのオブジェクトを開くためにAWS CLIを利用してpre-signed urlsを取得してみました。 アジェンダ pre-signed urlsとは? pre-signed urlsの取得方法 まとめ 1. pre-signed urlsとは? pre-signed urls すべてのオブジェクト及びバケットは基本的にプライベートだが、pre-signed urlsを使用して選択的にオブジェクトを共有できる 顧客/ユーザーがAWSセキュリティ資格証明や権限なしに、バケットにオブジェクトをアップロードすることを許容できる pre-signed urlsの構成 pre-signed urlsは下のように構成されてます。 https://s3.amazonaws.com/examplebucket/test.txt? X-Amz-Al

                                                          AWS CLIを利用し、Amazon S3バケットのpre-signed urlsを取得してみました | DevelopersIO
                                                        • CloudFront + S3環境から Cloudflare R2 + Workers環境に移行した話

                                                          吉祥寺.pm32 https://kichijojipm.connpass.com/event/276411/ で発表した 「CloudFront + S3環境から Cloudflare R2 + Workers環境に移行した話」の資料になります。 その後、本LTの元ネタとなった記事をQii…

                                                            CloudFront + S3環境から Cloudflare R2 + Workers環境に移行した話
                                                          • GitHub - awslabs/mountpoint-s3: A simple, high-throughput file client for mounting an Amazon S3 bucket as a local file system.

                                                            Mountpoint for Amazon S3 is a simple, high-throughput file client for mounting an Amazon S3 bucket as a local file system. With Mountpoint for Amazon S3, your applications can access objects stored in Amazon S3 through file operations like open and read. Mountpoint for Amazon S3 automatically translates these operations into S3 object API calls, giving your applications access to the elastic stora

                                                              GitHub - awslabs/mountpoint-s3: A simple, high-throughput file client for mounting an Amazon S3 bucket as a local file system.
                                                            • AWS DataSync を使った Amazon S3 へのデータ同期 | Amazon Web Services

                                                              Amazon Web Services ブログ AWS DataSync を使った Amazon S3 へのデータ同期 このブログは2021年8月24日に David DeLuca (Senior Storage Solution Architect)によって執筆された内容を日本語化した物です。原文はこちらを参照して下さい。 オンプレミスからクラウドへデータを移行する際には、スピード、効率、ネットワーク帯域、コストなど、考慮すべき要素が数多くあります。多くの企業が直面する共通の課題は、大量のデータをオンプレミスから Amazon S3 バケットにコピーする際の適切なユーティリティの選択です。 私はよく、お客様が無料のデータ転送ユーティリティーや AWS Snow Family デバイスを使って、データをS3に取り込むことから始めるケースを目にします。また、同じお客様が AWS DataSy

                                                                AWS DataSync を使った Amazon S3 へのデータ同期 | Amazon Web Services
                                                              • 『GCPからAWSへのデータ移動』について考えて&まとめてみる | DevelopersIO

                                                                最近では『マルチクラウド』環境で仕事を回すというのも珍しい話では無くなって来ました。クラウドプラットフォーム間を連携するというのも普通に挙がってくるテーマかと思います。 そんな『マルチクラウド』の環境間で『データの移動』という部分について考えてみた場合、ざっと見てみた感じだと『AWS』から『GCP』については比較的情報量が多いなという印象を受けました。GCPが公式で『AWS向け』のドキュメントを展開しているというのも大いに関係しているかと思います。 ですが一方で、『GCP』から『AWS』という逆のパターンだとどうでしょう。AWSが個別に『GCP向け』の情報を展開しているというのは現状無さそうです。また、その他情報源についてはどうでしょうか?感覚値的には『AWS→GCP』程は情報量的に多くないのでは、という感じがします。 そこで当エントリでは、『GCP(Google Cloud Platfo

                                                                  『GCPからAWSへのデータ移動』について考えて&まとめてみる | DevelopersIO
                                                                • Amazon S3 の署名付き URL (presigned URL) をマネジメントコンソールからお手軽に生成できるようになっていた | DevelopersIO

                                                                  コンバンハ、千葉(幸)です。 2022年の1月27日に AWS の中の人からこんなツイートがありました。 You can now generate #AmazonS3 presigned URLs directly in the S3 console. Makes it easier to not bloat mails with large files. I've been waiting for this since (looks at notes) 2017. Thank you, S3 team for more #usability! pic.twitter.com/HYnDx8YPe5 — Steffen Grunwald (@steffeng) January 27, 2022 S3 コンソールから署名付き URL を簡単に生成できるようになったよ、という内容です。 具体的に

                                                                    Amazon S3 の署名付き URL (presigned URL) をマネジメントコンソールからお手軽に生成できるようになっていた | DevelopersIO
                                                                  • 新機能 – Amazon DynamoDB テーブルデータを Amazon S3 のデータレイクにエクスポート。コードの記述は不要 | Amazon Web Services

                                                                    Amazon Web Services ブログ 新機能 – Amazon DynamoDB テーブルデータを Amazon S3 のデータレイクにエクスポート。コードの記述は不要 2012 年のリリース以来、数十万の AWS のお客様がミッションクリティカルなワークロードに Amazon DynamoDB を選択しています。DynamoDB は、非リレーショナルマネージドデータベースで、事実上無限のデータを格納し、1 桁ミリ秒のパフォーマンスで任意のスケールで取得できます。 このデータから最大限の価値を引き出すには、お客様は AWS Data Pipeline、Amazon EMR、または DynamoDB ストリームに基づくその他のソリューションを利用する必要がありました。このようなソリューションでは通常、読み取りスループットの高いカスタムアプリケーションを構築する必要があるため、メンテ

                                                                      新機能 – Amazon DynamoDB テーブルデータを Amazon S3 のデータレイクにエクスポート。コードの記述は不要 | Amazon Web Services
                                                                    • S3 に格納したリソースを CloudFront で配信する構成をCDKで作る | DevelopersIO

                                                                      S3 に格納したリソースを CloudFront を介してのみアクセスできるようにする鉄板構成をCDKで構築します。 やりたいこと S3 に置いてある JSON ファイルを CloudFront で配信し、CloudFrontを経由してのみアクセスできるように設定します。 使うもの Typescript AWS CDK AWS リソースを作成するのに AWS CDK を使い言語はTypescript で記述します。 本記事で利用した環境は以下の通りです。 tsc -v Version 3.7.4 cdk version 1.57.0 (build 2ccfc50) AWS リソースの作成 早速 AWS CDK を使って AWS リソースを作成しましょう。必要なリソースは S3 バケットと CloudFront です。 雛形の作成 からっぽのディレクトリを作成して、そこに CDK の雛形を作

                                                                        S3 に格納したリソースを CloudFront で配信する構成をCDKで作る | DevelopersIO
                                                                      • Amazon S3の暗号化について調べてみた。 | DevelopersIO

                                                                        こんにちは、イムチェジョンです。 今回のブログではAmazon S3の暗号化について調べてS3で提供してくれる二つの暗号化を実際にしてみようと思います。 アジェンダ Amazon S3の暗号化とは? Amazon S3の暗号化4種類 SSE-S3の設定方法 SSE-KMSの設定方法 まとめ 1. Amazon S3の暗号化とは? 暗号化を使用することで転送時と保管時にデータをもっと安全に保護できる 転送時:Amazon S3 との間でデータを送受信するとき 保管時:Amazon S3 データセンター内のディスクに格納されているとき 大きくサーバー側の暗号化とクライアント側の暗号化に分けている サーバー側の暗号化:SSE-S3、SSE-KMS、SSE-C データセンターのディスクに保存する前にオブジェクトを暗号化し、オブジェクトをダウンロードする際に解読するようAmazon S3に要請 クラ

                                                                          Amazon S3の暗号化について調べてみた。 | DevelopersIO
                                                                        • Amazon S3 Select を使用して、サーバーまたはデータベースなしでデータをクエリする | Amazon Web Services

                                                                          Amazon Web Services ブログ Amazon S3 Select を使用して、サーバーまたはデータベースなしでデータをクエリする AWS のソリューションアーキテクトとして、すべてのタイプの顧客とユースケースをサポートしてきました。私たちは定期的に同じフィードバックを受け取っています。システムとインフラストラクチャをデプロイして管理する代わりに、顧客は複雑さと管理オーバーヘッドを削減して、コアビジネスに集中したいと考えています。大量のデータから必要なものを効率的に検索することは難しいため、複雑さとオーバーヘッドが生じます。 この記事では、構造化クエリ言語 (SQL) クエリを使用して、コンマ区切り値 (CSV) ファイルとして Amazon Simple Storage Service (Amazon S3) にロードされたデータを検索します。以前は、データをクエリするには

                                                                            Amazon S3 Select を使用して、サーバーまたはデータベースなしでデータをクエリする | Amazon Web Services
                                                                          • Amazon S3 からの 403 アクセス拒否エラーをトラブルシューティングする

                                                                            ユーザーが Amazon Simple Storage Service (Amazon S3) バケットのオブジェクトにアクセスしようとしていますが、Amazon S3 が「HTTP 403: Access Denied」(アクセスが拒否されました) というエラーを返します。 解決策 AWS Systems Manager Automation のドキュメントを使用する AWS Systems Manager では、AWSSupport-TroubleshootS3PublicRead オートメーションドキュメントを使用します。このオートメーションドキュメントは、指定したパブリック S3 バケットからのオブジェクトの読み取り問題を診断するために役立ちます。 バケットとオブジェクトの所有権を確認する GetObject または HeadObject リクエストによる AccessDenied

                                                                              Amazon S3 からの 403 アクセス拒否エラーをトラブルシューティングする
                                                                            • これが最新のAmazon S3ベストプラクティスだ! #AWS-41 #AWSSummit | DevelopersIO

                                                                              本記事は、AWS Summit Japan 2021のセッション動画、「AWS-41: 【基本の AWS サービス】進化した Amazon S3 を最大限に活用する」のレポート記事です。 Amazon S3は2006年のリリースから15年が経ちましたが、今でも頻繁にアップデートされるAWSの中核サービスです。AWSを利用している方はぜひチェックしておいてください! 概要 アプリケーション・パフォーマンスとストレージ・コストの最適化には、アプリケーションのレイテンシーとアクセス・パターンに応じて異なるアプローチが必要です。このセッションでは、アクセスパターンとパフォーマンスニーズに基づいて、Amazon S3 ストレージクラスにデータを格納する際の主要な考慮事項について説明します。Amazon S3 を最大限に活用して、コストを最適化し、パフォーマンスを向上させ、データを大規模に管理する方法

                                                                                これが最新のAmazon S3ベストプラクティスだ! #AWS-41 #AWSSummit | DevelopersIO
                                                                              • サーバーレスでメール検索システムを作ってみる - builders.flash☆ - 変化を求めるデベロッパーを応援するウェブマガジン | AWS

                                                                                こんにちは。プロトタイピングソリューションアーキテクトの福嶋です。 私には小学生の娘がいまして、最近小学校が再開されたその娘から、ずっと家にいられていいなーと言われてたりします。仕事しているんですけどね。 さて、その娘が通っている学校からは、ほぼすべてメールで連絡が送られてきます。例えば、そのメールには登校日の持ち物が書かれています。メールを読んだときは分かったつもりになっているのですが、登校日の前日には忘れていて、そのメールを探すのにいつも苦労しています。困ったことにメールには PDF が添付されているので、一つ一つ開いて確認していくしかありません。 そんなメールを検索できたら楽なのにということで、AWS で作ってみました。 *ハンズオン記事およびソースコードにおける免責事項 »

                                                                                  サーバーレスでメール検索システムを作ってみる - builders.flash☆ - 変化を求めるデベロッパーを応援するウェブマガジン | AWS
                                                                                • Amazon S3 バケットのオブジェクトに対するクロスアカウントアクセスを提供する

                                                                                  簡単な説明 Amazon S3 では、別の AWS アカウントのユーザーに、自分のアカウントが所有するオブジェクトに対する詳細なクロスアカウントアクセス権限を与えることができます。 与えるアクセス権限のタイプに応じて、以下のいずれかのソリューションを使用して、オブジェクトに対するクロスアカウントアクセス権限を与えます: S3 バケットオブジェクトに対するプログラムによるアクセス権限のみの AWS Identity and Access Management (IAM) ポリシーとリソースベースのバケットポリシー S3 バケットオブジェクトに対するプログラムによるアクセス権限のみのIAM ポリシーとリソースベースのアクセスコントロールリスト (ACL) 注: [バケット所有者強制] 設定を有効にすると、すべてのバケットとオブジェクトの ACL が無効になります。したがって、ACL でクロスア

                                                                                    Amazon S3 バケットのオブジェクトに対するクロスアカウントアクセスを提供する

                                                                                  新着記事