並び順

ブックマーク数

期間指定

  • から
  • まで

401 - 440 件 / 560件

新着順 人気順

ec2の検索結果401 - 440 件 / 560件

  • [Update] AWS DataSyncによるストレージサービス間のデータ転送にエージェントが不要となりました! | DevelopersIO

    こんにちは。サービスグループの武田です。 AWS DataSyncというサービスをご存じでしょうか?オンプレミスのストレージ、Amazon S3、Amazon EFS、Amazon FSx for Windows File Serverとの間でデータ転送をするためのサービスです。これまではデータ転送に、仲介するDataSyncエージェントが必須でした。今回のアップデートで、ストレージサービス間であればエージェントが不要になりました!素敵! ドキュメントに比較できるわかりやすい図がありましたので引用します。 日本語のドキュメントから。アップデート前はS3-EFS間でもエージェントが必要でした。 引用元:How AWS DataSync Works(日本語) こちらは英語のドキュメントから。アップデート後はストレージサービス間ではエージェントが不要に。 引用元:How AWS DataSync

      [Update] AWS DataSyncによるストレージサービス間のデータ転送にエージェントが不要となりました! | DevelopersIO
    • Scrapyでクロールし、S3へアップロードしたhtmlファイルを本文抽出して、Elasticsearchのインデックスへ保存したい。

      質問をすることでしか得られない、回答やアドバイスがある。15分調べてもわからないことは、質問しよう!新規登録して質問してみよう

        Scrapyでクロールし、S3へアップロードしたhtmlファイルを本文抽出して、Elasticsearchのインデックスへ保存したい。
      • CloudFormationで最新のAmazon Linux 2のAMI IDを取得してEC2を構築する | DevelopersIO

        CloudFormationでEC2を構築するとき、AMI IDをどうやって保持するのか悩ましいです。 パラメータとして保持する?そうすると、リージョン毎にAMI IDは異なるので特定のリージョンでしか使えないCloudFormationテンプレートになってしまう。 Mappingsとして保持する?そうすると全リージョンの最新のAMI IDを記載するのがとてもめんどくさい。 そんなことを悩んでいたら、公開パラメータストアから最新のAMI IDを取得する方法を知ったのでやり方をご紹介いたします。 最新のECS-optimized AMI IDをParameter Storeから取得できるようになりました(Amazon Linuxもあるよ) | DevelopersIO AWS Systems Manager Parameter Store を使用して最新の Amazon Linux AMI

          CloudFormationで最新のAmazon Linux 2のAMI IDを取得してEC2を構築する | DevelopersIO
        • 【新機能】LOAD DATA文(Cross-cloud transfer)でS3のファイルをBigQueryテーブルへロードできるようになりました | DevelopersIO

          データアナリティクス事業本部、池田です。 昨日、BigQueryの LOAD DATA 文(Cross-cloud transfer)が GA となりました。 【 BigQuery release notes > November 09, 2022 】 【 Cross-cloud transfer from Amazon S3 】 ※執筆時点では日本語のガイドは未更新 もともと BigQuery Omni の 外部テーブル でAmazon S3など別クラウドのストレージを参照することはできました。 ↓この辺は以前ブログにしています。 S3からBigQueryへ連携する方法いろいろ(Omni/Transfer Service) ※現在はストレージへのアクセスなどは BigLake の機能として整備されました。 ただし、S3の場合、その外部テーブルは aws-us-east-1 という特別なリ

            【新機能】LOAD DATA文(Cross-cloud transfer)でS3のファイルをBigQueryテーブルへロードできるようになりました | DevelopersIO
          • Amazon EC2 リソース最適化推奨のご紹介

            本日より、AWS Cost Explorer で、カスタム生成した Amazon EC2 リソース最適化推奨をご利用いただけるようになりました。この推奨事項では、アカウントやリージョンでアイドル状態のインスタンスや使用されていないインスタンスを特定します。この推奨事項を生成するために、AWS では過去の EC2 リソースの使用状況、Amazon CloudWatch メトリクス、過去の予約履歴を分析してコストを削減できる可能性 (例えば、アイドル状態のインスタンスを削除する、アクティブなインスタンスを縮小するといった、より低いコストを実現する選択肢) があるか判断します。例えば、過去 14 日間の m5.2xlarge インスタンスの使用率が最大 20% であった場合、インスタンスのサイズを m5.xlarge か m5.large に縮小し、これまでの使用率に照らした削減コストおよび最適

              Amazon EC2 リソース最適化推奨のご紹介
            • S3バケットポリシーとIAMポリシーの関係を整理する - BioErrorLog Tech Blog

              S3バケットポリシーとIAMポリシーの関係を、同一アカウント・クロスアカウントそれぞれにおいて整理します。 はじめに S3バケットポリシーとIAMポリシーの関係 結論 検証準備 同一アカウント内アクセス クロスアカウントアクセス おわりに 参考 はじめに こんにちは、@bioerrorlogです。 S3に対するアクセス権限の制御方法としては、アクセス元のIAMポリシーとアクセス先のバケットポリシーのふたつが挙げられます。 S3に対するアクセス権限の制御 IAMポリシーとバケットポリシーのどちらで制御すればよいのか、はたまた両方で制御する必要があるのか、油断してると忘れそうになります。 今回は、このIAMポリシーとバケットポリシーでの制御方法の関係性について、同一アカウント内の場合とクロスアカウントの場合でそれぞれ整理します。 S3バケットポリシーとIAMポリシーの関係 結論 まず簡潔に結論

                S3バケットポリシーとIAMポリシーの関係を整理する - BioErrorLog Tech Blog
              • EC2インスタンスをコピーする方法 - Qiita

                コピー元インスタンスのAMIをつくってそこからインスタンスを作成することで、インスタンスのコピーを作れる Amazon マシンイメージ (AMI) は、ソフトウェア構成 (オペレーティングシステム、アプリケーションサーバー、アプリケーションなど) を記録したテンプレートです。 インスタンスと AMI - Amazon Elastic Compute Cloud EC2インスタンスの画面を表示する AWSのコンソールにログイン > [EC2] イメージを作成する サイドメニューの[インスタンス] > コピー元のインスタンスを選択 [アクション] > [イメージ] > [イメージの作成]でダイアログを表示する [イメージ名]に何のイメージかわかるような値を設定する [再起動しない]チェックボックス : コピー元インスタンスを再起動しないでイメージを作成したい場合はチェックを入れる [終了時に削

                  EC2インスタンスをコピーする方法 - Qiita
                • 【初心者必見】Amazon S3のアクセス制御|伊藤忠テクノソリューションズ

                  【初心者必見】Amazon S3のアクセス制御 投稿日: 2021/03/30 こんにちは、高橋です。 Amazon S3はデータの保管に非常に便利なサービスです。しかしながら、S3内部のオブジェクトに関しては同じアカウント内のIAMユーザは勿論、他のAWSアカウントのユーザ、 さらにはオブジェクトを公開した場合、外部からでもアクセスできてしまいます。 そのため、S3にはバケット/オブジェクトへのアクセスを制御するためのアクセスコントロールの方法が3種類用意されています。 今回はS3のアクセス制御の方法とお客様からよく問い合わせを受けるアクセス制御の実際の設定例についてご紹介します。 Amazon S3のアクセス制御 Amazon S3のアクセス制御の方法は下記の3種類の方法があります。 1. IAMポリシー 通常のAWSサービスへのアクセス制御と同様にポリシードキュメントにてIAMユーザ

                    【初心者必見】Amazon S3のアクセス制御|伊藤忠テクノソリューションズ
                  • Amazon EC2 now performs automatic recovery of instances by default

                    Today, Amazon EC2 announces automatic recovery by default, a new feature that makes it even easier for customers to recover their instance when it becomes unreachable. Automatic recovery improves instance availability by recovering the instance if it becomes impaired due to an underlying hardware issue. Automatic recovery migrates the instance to another hardware during an instance reboot while re

                      Amazon EC2 now performs automatic recovery of instances by default
                    • s3s - ディレクトリ検索するようにS3 Selectを実行するOSSを書いた - KAYAC engineers' blog

                      この記事は Tech KAYAC Advent Calendar 2022 の10日目の記事です。 サーバサイドエンジニアのkolukuです。 今回は、ディレクトリ検索するようにS3 Selectを実行する社内向けツールをOSSとして作った話です。 過去のこの人のアドベントカレンダーはこちら(折りたたみ) 2021年 techblog.kayac.com 2020年 techblog.kayac.com TL;DR ディレクトリ検索するようにS3 Selectを実行するOSSを書いた brew install koluku/tap/s3s ALBやCFのログに対しても便利なオプションを用意したため新規プロジェクトでスタートダッシュしやすくなった OSS書くことで今までの学びを活かすことも、新たに得ることもできた TOC TL;DR TOC S3 Selectとは 例: 管理画面 例: aw

                        s3s - ディレクトリ検索するようにS3 Selectを実行するOSSを書いた - KAYAC engineers' blog
                      • Amazon S3 Glacier announces a 40% price reduction for PUT and Lifecycle requests

                        Amazon S3 is reducing the cost to move data to Amazon S3 Glacier by lowering PUT and Lifecycle request charges by 40% for all AWS Regions. You can use the S3 PUT API to directly store compliance and backup data in S3 Glacier that does not require immediate access. You can also use S3 Lifecycle policies to move data from S3 Standard, S3 Standard-Infrequent Access, or S3 One Zone-Infrequent Access t

                          Amazon S3 Glacier announces a 40% price reduction for PUT and Lifecycle requests
                        • 非VPC LambdaでIP制限されたS3バケットにアクセスしたい | DevelopersIO

                          以下のように特定 IP アドレスのみにアクセス許可している S3 バケットに対して、非 VPC Lambda で GetObject したい場合にどうしたら良いでしょうか? (前提としては各 IAM ロールで S3 への Allow 権限は与えています。) IP 制限されたバケットポリシー { "Version": "2012-10-17", "Statement": [ { "Effect": "Deny", "Principal": "*", "Action": "s3:GetObject", "Resource": "arn:aws:s3:::<BUCKET-NAME>/*", "Condition": { "NotIpAddress": { "aws:SourceIp": "59.xx.xx.xx/32" } } } ] } VPC Lambda を使えばアクセス元が限定できるので

                            非VPC LambdaでIP制限されたS3バケットにアクセスしたい | DevelopersIO
                          • AWS、「Amazon EC2」のMacインスタンスを提供開始

                            Amazon Web Services(AWS)は、3週間にわたって開催するre:Inventカンファレンスの初日にあたる米国時間11月30日、「Amazon EC2」サービスで「Mac」インスタンスを提供すると発表した。 このインスタンスは「Mac mini」のハードウェアと「AWS Nitro System」の組み合わせており、「macOS Mojave」(10.14)と「macOS Catalina」(10.15)をサポートする。 AWSチーフエバンジェリストのJeff Barr氏は、「Amazon EC2 Macインスタンスを使って、macOS、『iOS』『iPadOS』『tvOS』『watchOS』『Safari』といったAppleの各種プラットフォーム向けXcodeアプリケーションの開発、テスト、パッケージング、サインを実行できる」とAWSの公式ブログで説明した。 「このインス

                              AWS、「Amazon EC2」のMacインスタンスを提供開始
                            • Amazon S3 バケットアクセスを特定の IP または VPC に制限する

                              特定の Amazon 仮想プライベートクラウド (VPC) エンドポイントまたは特定の IP アドレスから送信されていないトラフィックをすべてブロックしたいと考えています。または、Amazon Simple Storage Service (Amazon S3) バケットを使用して静的ウェブサイトをホストしています。ウェブサイトには、特定の VPC エンドポイントまたは IP アドレスからアクセスできる必要があります。 解決策 **警告:**この記事のバケットポリシーの例では、許可された VPC エンドポイントまたは IP アドレス以外のリクエストに対して明示的にアクセスを拒否します。バケットポリシーを保存するときは、事前に、内容をよく確認してください。 バケットポリシーを使用して、S3 バケットにアクセスできる VPC エンドポイント、VPC ソース IP アドレス、または外部 IP ア

                                Amazon S3 バケットアクセスを特定の IP または VPC に制限する
                              • [小ワザ] AWS CloudShellを利用して簡単にS3に保存されているログを確認してみた | DevelopersIO

                                こんにちは、コンサル部@大阪オフィスのTodaです。 S3に保存されているログファイルを参照する場合、ダウンロードして確認したりと少し手間だな...と思うときがあります。 今回、圧縮されていないログファイルを簡単に確認する方法としてCloudShellを使って参照をしてみたいと思います。 やりたいこと 非公開のバケットに保存されているログファイルの中身を簡単に確認する。 ダウンロード操作をしないで確認する。 AWS CLIリファレンスで使えそうなコマンドを確認 ・s3 cpコマンド ファイルの中を確認するコマンドは見つかりませんでしたので 今回はオブジェクトのコピーをする「s3 cp」を使ってみようと思います。 やってみる S3にダミーのログを設置 検証用のログファイルをS3バケット内に保管するようにします。 ファイルの参照で必要な情報として「S3 URL」を控えるようにします。 Clou

                                  [小ワザ] AWS CloudShellを利用して簡単にS3に保存されているログを確認してみた | DevelopersIO
                                • 【AWS グラレコ解説】高い可用性と耐久性のオブジェクトストレージ。Amazon S3 をグラレコで解説 - builders.flash☆ - 変化を求めるデベロッパーを応援するウェブマガジン | AWS

                                  ※ 本連載では、様々な AWS サービスをグラフィックレコーディングで紹介する awsgeek.com を、日本語に翻訳し、図の解説をしていきます。awsgeek.com は ジェリー・ハーグローブが運営しているサイトです。 これまでのグラレコ解説はこちら » builders.flash 読者のみなさん、こんにちは ! テクニカルライターの米倉裕基と申します。 本記事では AWS のデータ管理サービスを代表するオブジェクトストレージ、Amazon S3 についてご紹介します。 Amazon S3 は、業界をリードするスケーラビリティ、データ可用性、セキュリティ、およびパフォーマンスを提供するオブジェクトストレージサービスです。あらゆる規模や業種のお客様が、データレイク、クラウドネイティブアプリケーション、モバイルアプリケーションなど、事実上あらゆるユースケースで、あらゆる量のデータを保存

                                    【AWS グラレコ解説】高い可用性と耐久性のオブジェクトストレージ。Amazon S3 をグラレコで解説 - builders.flash☆ - 変化を求めるデベロッパーを応援するウェブマガジン | AWS
                                  • AWS Lambdaのトリガーについて - Qiita

                                    Lambdaについて AWS Lambda(以下Lambda)はサーバレスコンピューティングサービスです。 オペレーティングシステム(以下OS)などのインフラストラクチャの管理が不要で、利用者はプログラムコードを準備し、Lambdaにアップロードするだけで実行できます。 トリガーとは トリガーはLambdaを実行するきっかけです、もちろん手動で実行できますが自動で実行も出来ます、それは色々の方法あります。 これは普通の作成したlambdaです、画面で左側は「トリガーを追加」オプションがあります、それをクリックすると色々選べます。選べるオプションの中にちょっと説明します。 s3 S3にファイルが置かれた時に自動でLambdaを実行できます。 設定画面はこちら: まずはどこのバケットのトリガーを設定します、アカウントの全体アクションは出来ませんので各バケットに設定が必要です。 次はどこのアクシ

                                      AWS Lambdaのトリガーについて - Qiita
                                    • Amazon CloudFrontの公開設定を色々とためしてみた - Qiita

                                      Amazon CloudFrontの公開設定を色々とためしてみました 事前準備 事前にAmazon S3に公開したいファイル一式をアップロード 設定は非公開のままでOK Amazon S3と組み合わせた公開 Amazon CloudFrontとAmazon S3を組み合わせて公開する方法です。 AWSコンソール → CloudFrontをクリック。 「CloudFrontディストリビューションを作成」をクリック。 対象のS3のドメインを指定。S3のバケットアクセスを指定しポリシーは自動更新に設定。httpsにリダイレクトする設定。ルートオブジェクトにS3のindex.htmlを設定。その他は今回はデフォルトのまま設定。 作成後、S3のバケットを確認するとポリシーが自動で設定されているのを確認。 作成されたCloudFrontのS3用のディストリビューションのURLにアクセスしてみる。 Cl

                                        Amazon CloudFrontの公開設定を色々とためしてみた - Qiita
                                      • [アップデート] Amazon マシンイメージ(AMI)の無効化ができるようになりました | DevelopersIO

                                        一時的に使用させたくないけど後で調査のためにイメージを残しておきたいといったケースなどに使えそうです。 こんにちは、AWS事業本部の平木です! ふと AWS 公式ドキュメントを眺めていたところ、 Amazon マシンイメージ(以下、AMI) を無効化できるアップデートがあったのでご紹介します。 AMI の無効化とは 「AMI の無効化」とは、文字通り AMI が無効化され使用できなくする状態にできます。 無効化した AMI をコンソール画面で見ると、ステータスが「無効」となっているのが分かります。 無効化することの影響 無効化することの影響はいくつかあります。 AMI の共有の無効化 まず、無効な AMI は共有できなくなり、AMI が公開されていた場合は非公開になります。 AMI が AWS アカウント、Organizations、または OU へ共有されていた場合、共有先のアカウントは

                                          [アップデート] Amazon マシンイメージ(AMI)の無効化ができるようになりました | DevelopersIO
                                        • GitHub ActionsでウェブサイトをAmazon S3にデプロイする | DevelopersIO

                                          こんにちは。ジョン・ヒョンジェです! GitHub Actionsを利用して、ReactプロジェクトをAmazon S3に自動でデプロイしてみましたので共有します。 はじめに GitHub ActionsはGitHubリポジトリを基盤にWorkflowを自動化させることができるCI/CDのツールです。 GitHub ActionsでのWorkflowとは実行する作業とその作業を実行する条件や順序を定義したもので、YAMLに作成されます。GitHubのMarketPlaceで他の人が作成したWorkflowを使うことができ、独自のWorkflowを作成することもできます。 GitHub Actionsを使うとコードのビルド、テスト、デプロイという面倒な過程を自動化させることができるので、開発者の負担を減らすことができます。 では、実際にGitHub Actionsを使ってReactプロジェク

                                            GitHub ActionsでウェブサイトをAmazon S3にデプロイする | DevelopersIO
                                          • Amazon S3バケットのリクエスタ支払設定を有効にしてみた | DevelopersIO

                                            いわさです。 Amazon S3にはリクエスタ支払いバケットの設定があることをご存知でしょうか。 まず、S3はストレージクラスによって、ストレージ利用サイズ / リクエスト回数 / データ取り出し回数,サイズ / データ転送サイズ など様々な要素で料金が構成されています。 上記のデータのアクセスにかかるコストを、バケット所有者ではなくてデータへのアクセス者が支払うことが出来るオプションです。 今回はアカウント間でバケット共有を行て、AWS CLIからアクセスを試みました。 公式ドキュメントだけだと躓いた点があったので記しておきます。 共有バケットの作成 バケットを別アカウントへ共有するためには、バケット所有アカウントでバケットポリシーを設定し、アクセスするアカウントでIAMポリシーを設定する必要があります。 手順は以下を参考にします。 バケットには秘密のJPEG画像をいくつかアップロードし

                                              Amazon S3バケットのリクエスタ支払設定を有効にしてみた | DevelopersIO
                                            • Presigned URLを利用したS3へのファイルアップロード - KAKEHASHI Tech Blog

                                              はじめに こんにちは、LINE上で動くおくすり連絡帳 Pocket Musubi というサービスを開発している種岡です。 社内システムからS3にファイルをアップロードする機能を開発することになり、Presigned URLを利用して開発を試みたものの、想定以上に時間がかかってしまいました。 S3の設定からバックエンド、フロントエンドと一気通貫での情報がまとまっていないことが課題として浮かんできたので、備忘録として残しておくことにしました。 ゴール クライアント側(Angular)のフォームで選択したファイルをS3にアップロードできること S3にアップロードする際は Presigned URL を利用すること アップロードされたオブジェクトは 読み込みのみのパブリックアクセス のアクセス許可が付与されていること Presigned URLとは AWSのドキュメントの署名付きURLの使用を抜粋

                                                Presigned URLを利用したS3へのファイルアップロード - KAKEHASHI Tech Blog
                                              • no space left on deviceとなった時の対応方法 - Qiita

                                                $ docker-compose up -d --no-recreate --build ...省略... vulkan-filesystem.noarch 0:1.1.97.0-1.el7 xdg-utils.noarch 0:1.1.0-0.17.20120809git.el7 Complete! ERROR: Service 'ponsuke-java11' failed to build: Error processing tar file(exit status 1): write /opt/google/chrome/chrome: no space left on device # ディスク容量の使用率が99%になっていた $ df -h Filesystem Size Used Avail Use% Mounted on devtmpfs 32G 0 32G 0% /dev

                                                  no space left on deviceとなった時の対応方法 - Qiita
                                                • https://dl.acm.org/doi/10.1145/3477132.3483540

                                                  • EC2 インスタンスからのポート 25 の制限解除

                                                    簡単な説明 デフォルトでは、Amazon EC2 はスパム防止対策としてポート 25 でインスタンスを調整します。AWS は、すべての EC2 インスタンスのポート 25 (SMTP) でのアウトバウンドトラフィックをブロックし、許可リストに記載されていないアカウントが所有する Elastic Network Interface 上の Lambda 関数をブロックします。AWS は、AWS の IP レピュテーションが損なわれるのを防ぎ、正当なトラフィックがスパムとしてマークされないようにするために、このトラフィックをブロックします。詳細については、「ポート 25 を使用した E メール送信の制限」を 参照してください。 ポート 25 でアウトバウンドトラフィックを送信するには、次の手順を実行します。 制限を解除するよう AWS にリクエストします。 AWS から回答を受け取ったら、AWS

                                                      EC2 インスタンスからのポート 25 の制限解除
                                                    • Announcing new Amazon EC2 G5g instances powered by AWS Graviton2 processors

                                                      Today, we are announcing the new Amazon EC2 G5g instances powered by AWS Graviton2 processors and featuring NVIDIA T4G Tensor Core GPUs. G5g are the first Arm-based instances in a major cloud to feature GPU acceleration and provide the best price performance in Amazon EC2 for Android game streaming. With G5g instances, Android game developers can run natively on Arm-based GPU instances, encode the

                                                        Announcing new Amazon EC2 G5g instances powered by AWS Graviton2 processors
                                                      • EC2の既存システムをECSにリプレイスした話 - アイリッジ開発者ブログ

                                                        アイリッジ プロダクト開発グループの高田です。 EC2からECSにインフラをリプレイスすることは割とあるケースだと思います。 これから似たようなことやる人にとって、少しでも参考になる記事になれば幸いです。 対象読者 EC2でサーバを立てたことがある人 ECSでコンテナを立てたことある人 目次 なぜやったのか リプレイス前後のインフラについて 結果と課題 なぜやったのか コスト(サーバ費用と運用の手間)を下げるためです。チーム内ではとりわけ運用コストを下げるため、前々から既存サービスのFargate化を行ってきました。 運用コスト デプロイに手間と時間がかかる問題 私が普段携わってる自社サービスは複数のコンポーネントによって成り立っています。その内多くがDocker化されていて比較的デプロイが簡単にできるようになっていますが、一番デプロイ頻度の高いコンポーネントがまだDocker化されておら

                                                          EC2の既存システムをECSにリプレイスした話 - アイリッジ開発者ブログ
                                                        • Amazon Redshift now supports auto-copy from Amazon S3

                                                          Amazon Redshift launches the preview of auto-copy support to simplify data loading from Amazon S3 into Amazon Redshift. You can now setup continuous file ingestion rules to track your Amazon S3 paths and automatically load new files without the need for additional tools or custom solutions. Amazon Redshift customers run COPY statements to load data into their local tables from various data sources

                                                            Amazon Redshift now supports auto-copy from Amazon S3
                                                          • REST リクエストの署名と認証 - Amazon Simple Storage Service

                                                            このトピックでは、署名バージョン 2 を使用してリクエストを認証する方法を説明します。Amazon S3 では、現在、最新の署名バージョン 4 がサポートされています。この最新の署名バージョンはすべてのリージョンでサポートされており、2014 年 1 月 30 日以降は、新しいリージョンではバージョン 4 の署名のみがサポートされます。詳細については、Amazon Simple Storage Service API リファレンスの「リクエストの認証 (AWS 署名バージョン 4)」を参照してください。 認証とは、自身のアイデンティティをシステムに証明するプロセスのことをいいます。アイデンティティは、Amazon S3 のアクセス管理の判断における重要な要因です。リクエストの許可または拒否は、リクエスタのアイデンティティに部分的に基づいています。たとえば、バケットを作成する権利は、登録開発

                                                            • Amazon S3バケットへのアクセスにIP制限をかける - JPCYBER

                                                              Amazon S3バケットへのアクセスにIP制限をかける 2023年4月1日 サポート Amazon S3 バケットへのアクセスに IP 制限をかける(特定の IP アドレスだけにアクセスを許可する)方法について説明します。 ■ Amazon S3 バケット ポリシーの作成 新規に Amazon S3 のバケット ポリシーを作成して、Amazon S3 バケットへの高度なアクセス許可を設定します。 1.AWS 管理コンソールの Amazon S3 サービスからアクセス許可を設定したいバケットを選択し、[アクセス権限] をクリックします。 2.[バケットポリシー] をクリックします。 3.以下のようなバケット ポリシーを作成し、[保存] してください。 バケット名(my-bucket)は適宜置き換えてください。 { "Version": "2012-10-17", "Statement":

                                                              • オートリカバリーとオートヒーリングの違いを教えてください | DevelopersIO

                                                                困っていた内容 EC2 インスタンスを使った環境を利用しています。オートリカバリーとオートヒーリングという言葉を知りましたが、よくわからないので違いを教えてください。 どう違うの? オートリカバリー(Auto Recovery)は既存インスタンスの CloudWatch メトリクス監視(アラーム)をトリガーとする EC2 インスタンスの自動復旧の仕組みです。 オートヒーリング(Auto Healing)は AutoScaling グループで設定したステータスチェック失敗時に、異常のある EC2 インスタンスを削除し、新しいインスタンスを起動して、常に一定数の EC2 インスタンスを維持する構成です。 それぞれの設定の仕方について説明します。 オートリカバリーの設定方法 CloudWatch アラームでAmazon CloudWatch アラームへの復旧アクションの追加に記載された条件を満た

                                                                  オートリカバリーとオートヒーリングの違いを教えてください | DevelopersIO
                                                                • やさしいEC2からRDS疎通確認(TCPレイヤー接続) | Oji-Cloud

                                                                  概要 はじめに 今回は、同一VPCに配置されたEC2~RDS間の疎通確認について記載します。 なお、DBクライアントからの接続ではなく、TCP/IPレイヤーでの接続確認となります。 目的 EC2、RDSを起動した後にEC2~RDS間の疎通確認を行います。特に、インフラ構築とその後のアプリデプロイやDBのテーブル作成以降の構築が別担当となることが多く、責任分界点として、各プロダクト間のサブネット、ルーティングやセキュリティグループが正しいことを確認することが目的です。 TCP/IPレイヤーの確認であれば、EC2にDBクライアントをインストールする必要がないため、DBクライアントのインストールが不要です。RDSの種別ごとにクライアントのソフトも異なるため、この段階で準備の煩わしさを回避できます。 RDS疎通確認の方法 EC2(Windows Server)からのRDS疎通確認 以下に、Wind

                                                                  • Amazon S3 now supports enabling S3 Object Lock on existing buckets

                                                                    Amazon S3 now allows you to enable S3 Object Lock for existing buckets with just a few clicks and to enable S3 Replication for buckets using S3 Object Lock. These improvements make it even easier to adopt S3 Object Lock, which protects objects from being overwritten or deleted. S3 Object Lock makes objects immutable for a fixed amount of time by assigning a Retain Until Date or indefinitely by app

                                                                      Amazon S3 now supports enabling S3 Object Lock on existing buckets
                                                                    • Amazon EC2 C6in, M6in, M6idn, R6in, and R6idn instances are now available in Asia Pacific (Tokyo, Singapore) and AWS GovCloud (US-West)

                                                                      Starting today, Amazon Compute Cloud (Amazon EC2) C6in, M6in, M6idn, R6in, and R6idn instances are available in Asia Pacific (Singapore), Asia Pacific (Tokyo), and AWS GovCloud (US-West) regions. These instances are powered by 3rd Generation Intel Xeon Scalable processors with an all-core turbo frequency of up to 3.5 GHz. They are the first x86-based Amazon EC2 instances to offer up to 200 Gbps ne

                                                                        Amazon EC2 C6in, M6in, M6idn, R6in, and R6idn instances are now available in Asia Pacific (Tokyo, Singapore) and AWS GovCloud (US-West)
                                                                      • 【AWS】SAA資格取得のための学習用備忘録(コンピューティングサービス) - ポンサラの逆襲

                                                                        メモ 以前取得したAWSの資格「クラウドプラクティショナー」に続き「ソリューションアーキテクトアソシエイト(SAA-C03)」取得を目指して勉強中! いつも何か勉強するときは基本的に書きながら覚えるのでここでアウトプットします。 有益な情報かどうかは不明(笑) AWSにおけるコンピューティングサービス コンピューティングは、アプリケーションを稼働させるインフラサービスで、システムアーキテクチャの中核を担う。 EC2:仮想サーバーを提供するコンピューティングサービス。必要な数だけすぐにサーバーを立てることができる、いわゆるIaas型のサービス。ELBやAuto Scalingといったサービスと組み合わせることで、負荷に応じて動的にサーバーの台数を変更するクラウドらしい使い方もできる。 ECS:Dockerコンテナの実行環境を提供するサービス。このサービスが登場するまでは、AWSでDocker

                                                                          【AWS】SAA資格取得のための学習用備忘録(コンピューティングサービス) - ポンサラの逆襲
                                                                        • Amazon EC2 インスタンスを別のサブネット、アベイラビリティーゾーン、または VPC に移動する

                                                                          Amazon Elastic Compute Cloud (Amazon EC2) インスタンスを別のサブネット、アベイラビリティーゾーン、または仮想プライベートクラウド (VPC) に移動するか、コピーしようと思います。 簡単な説明 既存のインスタンスは、別のサブネット、アベイラビリティーゾーン、または VPC に移動することはできません。代わりに、ソースインスタンスから新しい Amazon マシンイメージ (AMI) を作成し、手動でインスタンスを移行することができます。次に、新しい AMI を使用して目的のサブネット、アベイラビリティーゾーン、または VPC で新しいインスタンスを起動します。最後に、ソースインスタンスから任意の Elastic IP アドレスを新しいインスタンスに再割り当てします。 インスタンスを移行するには、次の 2 つの方法があります: AWS Systems

                                                                            Amazon EC2 インスタンスを別のサブネット、アベイラビリティーゾーン、または VPC に移動する
                                                                          • stateファイル(tfstate)をS3からTerraform Cloudに移行してみる | DevelopersIO

                                                                            「tfstateはTerraform Cloudで管理したいな。どうやって移行すればいいんだろう。」 AWSで Terraformを使っていると、stateファイル管理用のリソース(S3やDynamoDB)が増えてきて管理が大変になることがあると思います。 そんな時はTerraform Cloudでstateファイルを管理すると楽です。 Terraform Cloudで管理することで、stateファイル管理用のリソースを自分で作成する必要がなくなります。 ちなみに、stateファイルの管理自体はFreeプランでも可能です。 今回は、stateファイルの管理をS3からTerraform Cloudに移行してみます。 やってみた 移行前(stateファイルをS3管理) 検証用にstateファイルをS3管理するパターンでAWSリソースを作ってみました。 main.tf terraform { r

                                                                              stateファイル(tfstate)をS3からTerraform Cloudに移行してみる | DevelopersIO
                                                                            • Firefox SendのS3連携機能を試してみた | DevelopersIO

                                                                              どうも、もこ@札幌オフィスです。 最近プライベートでちょっとしたファイルのやりとりをする時はFirefox Sendを使うようにしていて、なんとなくリポジトリを眺めているとS3と連携して保存することが出来るのを知ったので、自前のAWS環境でFirefox Sendのサーバーを構築してみたいと思います。 作る物 Firefox SendはオープンソースでストレージとしてS3を利用することが出来るので、フロントをEC2、S3をアップロードしたファイルのストレージとして扱う設定をしてあげます。 https://github.com/mozilla/send EC2上でFirefoxSendを設定 まずはじめに、インスタンスのSecurityGroupとIAMの設定をします。 Firefox Sendでは 1443 をデフォルトポートとして利用するため、こちらを解放してあげます。 IAMロールはリ

                                                                                Firefox SendのS3連携機能を試してみた | DevelopersIO
                                                                              • S3でクロスアカウントアクセスする時に気をつけるポイント | フューチャー技術ブログ

                                                                                はじめにこんにちは。TIG/DXユニット 2020年新卒の渡辺です。 Amazon S3を利用したファイル連携を行う際、アカウント内に閉じた利用であれば特段問題ない場合でも、システム間連携となるとクロスアカウントが発生し、目的とした操作をするためには然るべき設定が必要になることがあります。 今回は、自アカウント(アカウントA)のS3バケットに対して他アカウント(アカウントB)から書き込みを行い、アカウントAから当該ファイルを参照する際に注意する設定について紹介していきます。 必要な設定は以下の2つです。 バケットポリシーの設定 オブジェクト所有者の変更 バケットポリシーの設定クロスアカウントアクセスを許可する設定として公式では、それぞれバケットポリシー、ACL、AssumeRoleを用いた3つの方法が紹介されていいます。 今回はバケットポリシーを利用する方法を記載します。lambdaなどか

                                                                                  S3でクロスアカウントアクセスする時に気をつけるポイント | フューチャー技術ブログ
                                                                                • S3で静的WEBサイトを立ち上げようとしたら403(404)エラーが出て困った話 | DevelopersIO

                                                                                  どうもさいちゃんです。今回はCloudFrontのテストのためにS3の静的ウェブサイトホスティングを使ってテストサイトを立ち上げたっかったので久々に試してみたらさっそく403エラーが出てハマってしまったので、ハマった部分をまとめてみました。 S3の概要 S3はAWSの提供するストレージサービスです。あらゆるデータを安全に保存することができるのですが、機能の一つに静的ウェブサイトのホスティングというものがあります。 S3バケットにhtmlファイルなどをアップロードしてWEBサイトとして閲覧できるようにすることができる機能です。 今回はハマった部分だけをまとめてみたので、詳しいホスティングの方法はこちらをご覧ください。 ハマったところ バケットを作ってファイルをアップロードして、静的WEBコンテンツの有効化をしてさぁOK!と思ってURLに飛んでみたら見事に403(404)エラーが出てきました。

                                                                                    S3で静的WEBサイトを立ち上げようとしたら403(404)エラーが出て困った話 | DevelopersIO