並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 25 件 / 25件

新着順 人気順

arnの検索結果1 - 25 件 / 25件

  • Amazon API Gateway がデュアルスタック (IPv4 と IPv6) エンドポイントのサポートを開始 | Amazon Web Services

    Amazon Web Services ブログ Amazon API Gateway がデュアルスタック (IPv4 と IPv6) エンドポイントのサポートを開始 3 月 31 日、すべての商用リージョンと AWS GovCloud (米国) リージョンのすべてのエンドポイントタイプ、カスタムドメイン、管理 API で、Amazon API Gateway の IPv6 サポートを開始しました。REST、HTTP、WebSocket API、カスタムドメインを設定して、既存の IPv4 サポートに加えて IPv6 クライアントからの呼び出しを受け入れることができるようになりました。デュアルスタック (IPv6 と IPv4) クライアントから API Gateway 管理 API を呼び出すこともできます。世界中の組織が IPv4 アドレスの不足とコスト増加に直面する中、IPv6 の実装

      Amazon API Gateway がデュアルスタック (IPv4 と IPv6) エンドポイントのサポートを開始 | Amazon Web Services
    • Amazon Q in Connect ナレッジベースにおいて、構成や仕様など気になる内容を調べてみた | DevelopersIO

      Amazon Q in Connect ナレッジベースにおいて、構成や仕様など気になる内容を調べてみた はじめに 本記事では、Amazon Q in Connect のナレッジベースについて、個人的に気になった構成や仕様、設定可能なパラメータなどを検証した内容をご紹介します。 ナレッジベースの仕組みや設定項目、回答精度を高めるための工夫、デフォルト設定の確認方法など、公式ドキュメントの調査や実際の使用経験から得られた知見をポイントごとに解説します。 Q in Connect ナレッジベース構成の概要 Amazon Q in Connectは、Amazon Bedrock上に構築されたサービスです。 これにより、Bedrockに実装されている安全性やセキュリティの制御機能を活用できます。 Amazon Bedrock を利用: 自動不正検出 AWS を実装します。Amazon Q in Co

        Amazon Q in Connect ナレッジベースにおいて、構成や仕様など気になる内容を調べてみた | DevelopersIO
      • Announcing the General Availability of the Amazon EventBridge Scheduler L2 Construct | Amazon Web Services

        AWS DevOps & Developer Productivity Blog Announcing the General Availability of the Amazon EventBridge Scheduler L2 Construct Today we’re announcing the general availability (GA) of the Amazon EventBridge Scheduler and Targets Level 2 (L2) constructs in the AWS Cloud Development Kit (AWS CDK) construct library. EventBridge Scheduler is a serverless scheduler that enables users to schedule tasks an

          Announcing the General Availability of the Amazon EventBridge Scheduler L2 Construct | Amazon Web Services
        • AWS Distro for OpenTelemetryの検証環境をTerraformとecspressoで手軽に構築する | DevelopersIO

          お疲れさまです。とーちです。 最近、OpenTelemetryの検証をする機会があり、AWS Distro for OpenTelemetry(ADOT)のサンプルコードを動かすための環境が必要になりました。検証用途なので、サクッと環境を用意して、使わないときはコスト最小化できる構成が理想的です。 そこで今回は、TerraformとecspressoでADOTのサンプルアプリケーションを動かすための環境を構築してみました。この記事では、その構築方法と使い方について解説します。 構築する環境の要件 今回構築する環境には、以下の要件を満たしたいと考えました: ALB + ECS Fargate構成でOpenTelemetryサンプルアプリケーションを動かせること 必要に応じてサンプルアプリケーションを変更し、デプロイできること 使わないときは最小限の課金にできること Observability

            AWS Distro for OpenTelemetryの検証環境をTerraformとecspressoで手軽に構築する | DevelopersIO
          • 【Amazon Connect】エージェントへの転送フローを使いやすくしてみた - Qiita

            Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 本記事では、Amazon Connectの「エージェントへの転送フロー」をより使いやすくする設定を説明します。 前提 顧客からの着信を対応しているエージェントが困り、他のエージェントへ転送する機能として、クイック接続という機能があります。 そのクイック接続で設定するフローが、本記事の内容になっているエージェントへの転送フローです。 設定を行う理由 普段の業務で、顧客との通話を対応しているエージェントが困り、他エージェントへ転送するという場面も多いかと思います。 その際に、対応しているエージェントから見える範囲に他エージェントが

            • ハッカソン個人備忘録⑳:FastAPIを動かすためのFargate×RDS(MySQL)構成をCloudFormationで自動化してみた - Qiita

              AWS のインフラをコードで管理し、自動的に一貫した構成を作成・更新できる Infrastructure as Code(IaC)の基本的な理解にも役立ちます。 書こうと思ったきっかけ 筆者自身が AWS を学び始めたとき、ネット上のテンプレート例は多くあるものの、実際にどのリソースが何をしているのかが掴みにくいと感じました。 このテンプレートは、自分で ECS + RDS を構築する中で整理したものであり、初心者の方でも全体像をつかめるように解説を加えました。 実際のテンプレート AWSTemplateFormatVersion: "2010-09-09" Resources: # VPCの作成 VPC: Type: "AWS::EC2::VPC" Properties: CidrBlock: "10.0.0.0/16" EnableDnsSupport: true EnableDnsH

              • 【Snowflake】外部ステージを使うためになぜ統合ストレージを使用するのか - Qiita

                前置き こんにちは。データエンジニアの山口歩夢です! Snowflakeには外部ステージという機能があります。 こちらの機能を使うことで、S3やGCSなどのクラウドストレージに格納されているデータを、まるでSnowflakeのテーブルのようにクエリすることができます。 外部ステージ使用するときに、統合ストレージというものも必要になるのですが、どうして必要なのか理解が浅かったので、こちらの記事でまとめてみることにしました。 参考リンク 本題 統合ストレージをどのように使用するのか、どうして必要になるのかなどを順番にまとめていきます! 統合ストレージの概要 統合ストレージがどういうものか簡潔に言うと、 Snowflakeからクラウドストレージ(S3など)のデータにアクセスするための権限を管理・保管するためのものです。 例えば、S3を操作できるようにするには、まず以下のようなS3の操作権限を持っ

                  【Snowflake】外部ステージを使うためになぜ統合ストレージを使用するのか - Qiita
                • 【自分用】Lambda関数でデフォルトVPCを削除 - Qiita

                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? import boto3 import os import time LOG_GROUP = '/lambda-logs/create-account' FUNCTION_NAME = os.environ['AWS_LAMBDA_FUNCTION_NAME'] log_client = boto3.client('logs', region_name='ap-northeast-1') def put_log(message, log_stream): timestamp = int(time.time() * 1000) try:

                    【自分用】Lambda関数でデフォルトVPCを削除 - Qiita
                  • AWS ARN(形式やリソース名に確信が持てない時のための一覧) - Qiita

                    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

                      AWS ARN(形式やリソース名に確信が持てない時のための一覧) - Qiita
                    • PostgreSQLユーザをTerraformで管理する - Qiita

                      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに こんにちは、Gakken LEAPインフラエンジニアの丹羽です。 先日、弊社サービスのShikaku Passで使っているPostgreSQL DBのユーザをTerraform管理下に置く取り組みを行ったので、その内容について解説したいと思います。 なお、PostgreSQLではユーザやグループを指す用語としてロールが使われていますが、以下では説明をシンプルにするためユーザという用語で統一しています。ご了承ください。 導入の経緯 サービスの成長に伴って、データベースユーザの権限管理が詳細化していくシーンは多いと思います。 Sh

                      • CodeBuild上でGitHub Actionsランナーを動かしてAuroraのDBマイグレーションを自動化してみる

                        はじめに はじめまして、システム基盤チームでSREをしている森と申します。 日々の業務で取り組んだことについて紹介いたします。 2024年は弊社にとって複数の新規プロダクトがリリースされた第二創業期とも言える年でもありました。 一方で複数のサービスがリリースされ始めたことで新たな問題が出てきました。 例として本番環境のDBに対してスキーマ変更を実施する場合、踏み台アカウント上にあるAmazon Workspaces[1]から各プロダクトで使われているDBへアクセスし、スキーマ変更を実施していました。 開発者が作成したクエリファイルをSREが本番環境へアクセスし実行する仕組みになっており、開発と運用の権限を分離するようにしていますが、DBマイグレーション作業の頻度が増えていくにつれ作業にかかる工数が肥大化し運用上の課題が生じてきました。 パッチ適用作業イメージ この課題を解決するためにDBマ

                          CodeBuild上でGitHub Actionsランナーを動かしてAuroraのDBマイグレーションを自動化してみる
                        • IAMユーザが自身のPWを変更する為に必要な権限を教えて下さい - Qiita

                          困っていた内容 IAMユーザがマネジメントコンソールより自身のパスワードを変更しようとした所 出来なかった。IAMユーザにはIAMUserChangePasswordというAWS管理のポリシーを付与している。 どう対応すればいいの? 先ずはIAM ⇒ アカウント設定よりユーザーにパスワードの変更が許可されているか確認 対象のIAMユーザーに以下のポリシーをアタッチ { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "iam:ChangePassword", "iam:GetLoginProfile", "iam:UpdateLoginProfile" ], "Resource": [ "arn:aws:iam::*:user/${aws:username}" ] }, { "Effect":

                            IAMユーザが自身のPWを変更する為に必要な権限を教えて下さい - Qiita
                          • 未使用アクセスキーを無効化するAWS Systems Manager カスタムドキュメントを作成し、AWS Configで自動修復してみた | DevelopersIO

                            { "Version": "2012-10-17", "Statement": [ { "Sid": "", "Effect": "Allow", "Principal": { "Service": "ssm.amazonaws.com" }, "Action": "sts:AssumeRole" } ] } カスタムSSMドキュメント作成 カスタムSSMドキュメントを作成します。 「AWSConfigRemediation-RevokeUnusedIAMUserCredentials」から[アクション]で[ドキュメントのクローン作成]をします。 もともとの「AWSConfigRemediation-RevokeUnusedIAMUserCredentials」コード(最新バージョン5)は以下の通りです。 (クリックで展開) schemaVersion: "0.3" description

                              未使用アクセスキーを無効化するAWS Systems Manager カスタムドキュメントを作成し、AWS Configで自動修復してみた | DevelopersIO
                            • テスターにIAMユーザー発行せずにLambdaバッチを実行してもらう方法 - Qiita

                              はじめに テスト時にデータ作ったからバッチのLambdaを実行して欲しいと依頼されるのってどこでもありますよね。 IAMユーザーを発行しても良いけど、一時的に、そのためだけに、って思うと微妙ですよね。 ということで、簡単な仕組みを用意したので記事に残しておきます。 バッチ実行イメージ 画面イメージ 対象のバッチを選択して、実行するためだけの簡単な画面を用意します。 AWS構成 CloudFrontからLambdaの関数URLを呼び出し、そのLambdaがEventBridgeが呼び出したかのように、バッチのLambdaを非同期で呼び出します。 なお、CloudFrontにはWAFでIP制限を行い、CloudFrontからS3とLambdaの関数URLはOACでアクセスを制限します。 CloudFront設定 オリジン設定 細かいところは書きませんが基本は以下のみです S3とLambdaの関

                                テスターにIAMユーザー発行せずにLambdaバッチを実行してもらう方法 - Qiita
                              • Amazon Q Developerを使って構成図を出力する

                                > AWS CLIの terraformのプロファイルを使用してVPCのリソースを調査してdraw.ioの構成図をSVG形式で出力して AWS CLIでterraformプロファイルを使用してVPCリソースを調査し、draw.ioの構成図をSVG形式で出力するために、以下 の手順で進めていきます。 まず、terraformプロファイルを使用してVPCリソースを調査しましょう。 Use AWS CLI ▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔▔ Running aws cli command: Service name: ec2 Operation name: describe-vpcs Profile name: te

                                • IAMポリシーのSidとは? - エンジニアの雲日記

                                  IAMポリシーを使用する際、「Sid(ステートメントID)」という項目があります。 これはポリシー内の特定のステートメント(ルールや許可設定)を識別するための一意のIDです。 以下では、IAMポリシーのSidについて中学生でもわかるように説明します。 Sidの基本概念 Sidは「Statement ID」の略で、ポリシー内の各ステートメントにユニークな名前を付けるために使用されます。 これにより、複数のステートメントがある場合でも、それぞれを簡単に識別することができます。 Sidは任意の文字列で構成され、ポリシーの読みやすさや管理のしやすさを向上させます。 なぜSidが重要なのか? Sidがあると、ポリシーの管理が楽になります。 たとえば、エラーが発生したときやポリシーを更新するときに、特定のステートメントを簡単に見つけることができます。 また、ポリシーの内容を他の人に説明するときにも役立

                                    IAMポリシーのSidとは? - エンジニアの雲日記
                                  • Amazon EKS 向けにオブザーバビリティが強化された Container Insights でNodeとDeploymentの監視を設定する - Qiita

                                    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Container Insights の強化されたオブザーバビリティは、NodeやDeploymentのCPU・メモリなどのリソース使用率を手軽に可視化できます。本ドキュメントでは、強化されたオブザーバビリティを使用して、リソース使用率に基づくメトリクス監視を設定する方法を説明します。 環境 本ドキュメントで説明する設定は、以下の環境で実施したものです。他のバージョンでも同様に設定が可能だと思いますが、細かい部分は異なるかもしれません。 EKS: v1.31 amazon-cloudwatch-observability: v3.6.0

                                      Amazon EKS 向けにオブザーバビリティが強化された Container Insights でNodeとDeploymentの監視を設定する - Qiita
                                    • AWSサービスをTerraformでコード化する:AWS Chatbot編 | NHN テコラス Tech Blog | AWS、Google Cloudなどのインフラ技術ブログ

                                      はじめに こんにちは、Shunです。 今回は、ChatbotをTerraformを使ってコード化する機会があったため、その方法をご紹介します。 本記事では以下のコード化を行っています。 想定読者 ChatbotやSNSなどの関連リソースを使用している方 AWSのコード化を検討している方 本記事で取り扱う内容 Chatbotのコード化の方法 コード化を実装する上での注意点 本記事で取り扱わない内容 ChatbotやSNSのサービス説明 Chatbotなどの設定値(これらは上述したブログでご紹介しています。) 実施すること 以下でご紹介する内容をTerraformでコード化したものです。 Chatbotなどの関連サービスを初めて使用する方は、先に上記の記事を読むことをお勧めします。 料金 Chatbot: 無料 SNS: $0.5/100万通知 CloudWatch Alarm: $0.1/ア

                                        AWSサービスをTerraformでコード化する:AWS Chatbot編 | NHN テコラス Tech Blog | AWS、Google Cloudなどのインフラ技術ブログ
                                      • Aurora PostgreSQL 環境で dblink 接続を使用する際に、AWS Secrets Manager から認証情報を取得してみる - サーバーワークスエンジニアブログ

                                        こんにちは😸 カスタマーサクセス部の山本です。 AWS Secrets Managerから認証情報を取得してデータベースに接続することにより、プログラム側でのDB認証情報のハードコーディングを排除することができます。dblinkの場合はどうなるのか、気になったのでやってみました。 概要 特徴 構成 処理の流れ セットアップ手順 1. IAMロールの設定 2. AWS Secrets Managerの設定 3. Lambda関数のデプロイ Lambda関数の入出力例: 4. PostgreSQL関数の作成 使用方法 基本的な使用例 エラーケースと対処法 制限事項 参考情報 余談 概要 本記事では、Aurora PostgreSQL 環境で dblink 接続を使用する際の、データベースパスワードの安全な管理方法について解説します。AWS Secrets Managerを活用することで、パス

                                          Aurora PostgreSQL 環境で dblink 接続を使用する際に、AWS Secrets Manager から認証情報を取得してみる - サーバーワークスエンジニアブログ
                                        • AWS Step FunctionsでAmazon Connectでの会話内容を要約し、コンタクト詳細に表示する方法 | DevelopersIO

                                          はじめに 本記事では、AWS Step Functionsを使用して、Amazon Connect Contact Lensで文字起こしした内容を日本語で要約し、コンタクト詳細画面に表示する方法を紹介します。 Contact Lensには、会話内容の文字起こしと要約機能が標準で搭載されています。 ただし、要約機能は日本語に対応していません。 そこで、Contact Lensが文字起こしデータをS3に保存した際のトリガーで、Step Functions ステートマシンからAmazon Bedrockを利用して日本語の要約を生成します。 生成した要約は、コンタクト詳細画面の属性として保存することで、以下のように表示できます。 コンタクト詳細に要約文を表示 構成は以下の通りです。 処理の流れは以下の通りです。 Contact Lens が会話を文字起こしし、S3 に保存 S3 の PUT イベン

                                            AWS Step FunctionsでAmazon Connectでの会話内容を要約し、コンタクト詳細に表示する方法 | DevelopersIO
                                          • マルチリージョンアクセスポイントを利用して、インターネットへの接続経由がない閉鎖的 VPC 環境からのクロスリージョン S3 アクセスをやってみた | DevelopersIO

                                            マルチリージョンアクセスポイントを利用して、インターネットへの接続経由がない閉鎖的 VPC 環境からのクロスリージョン S3 アクセスをやってみた はじめに テクニカルサポートの 片方 です。 東京リージョンの閉鎖的な VPC 環境(インターネット接続なし)に配置された EC2 インスタンスから、異なるリージョンの S3 バケットへ、AWS 内部ネットワークのみを使用してセキュアにアクセスしたいという場合があります。 以前であれば、別リージョンの VPC、VPC ピアリング又は Transit Gateway、別リージョンの S3 インターフェース VPC エンドポイントが必要であり大変でした。 今回ご紹介するマルチリージョンアクセスポイントを使用する方法であれば、"マルチリージョンアクセスポイント" と "S3 インターフェース VPC エンドポイント(com.amazonaws.s3-

                                              マルチリージョンアクセスポイントを利用して、インターネットへの接続経由がない閉鎖的 VPC 環境からのクロスリージョン S3 アクセスをやってみた | DevelopersIO
                                            • RedashからAthenaへ接続する際にIAM Access Keyを発行せずに接続する

                                              スターフェスティバル株式会社 の バックエンドエンジニアの @ikkitang です。 今回、Athena上に構築したテーブルに対して、それをRedashから参照出来るように環境構築をしました。 RedashからAthenaに接続するのは、公式からサポートがあってシュッと実現することが出来るのですが、以下の画像のように IAM を構築した上でAWS Access KeyとAWS Secret Keyを指定する必要があります。 Access Keyを指定することで接続出来ることは楽である反面、漏洩によるリスクなどを鑑みるなら取りたくない手段だと考えており、他に方法が無いかを模索しておりました。 ググる中で以下の記事を発見し、試してみた所、これにより実現することが出来ました! 本記事は、RedashからAthenaへ接続するタスクを進める際にハマったこと、またSwitchするIAM Roleに

                                                RedashからAthenaへ接続する際にIAM Access Keyを発行せずに接続する
                                              • github actions で OIDCでAWSを認証しようとしたらエラーがNot authorized to perform

                                                { "Version": "2012-10-17", "Statement": [ { "Sid": "", "Effect": "Allow", "Principal": { "Federated": "arn:aws:iam::${AWSアカウント}:oidc-provider/token.actions.githubusercontent.com" }, "Action": "sts:AssumeRoleWithWebIdentity", "Condition": { "StringLike": { "token.actions.githubusercontent.com:sub": "repo:${githubリポジトリ}:*" } } } ] }

                                                  github actions で OIDCでAWSを認証しようとしたらエラーがNot authorized to perform
                                                • Terraformのログレベルを調整する方法(TF_LOG)

                                                  記事の内容 Terraformのログレベルを調整する方法を解説します。 記事を読むと得られるもの Terraformのログレベルの設定方法 対象読者 Terraform User 記事の長さ 1分で読めます ログの調整 基本的には公式ドキュメント通りです。 TRACE DEBUG INFO WARN ERROR の中から、自分が出したいログレベルを選び、TF_LOGという環境変数にセットします。 $ export TF_LOG=DEBUG $ terraform plan 2023-11-08T11:43:53.017+0900 [INFO] Terraform version: 1.6.2 dev 2023-11-08T11:43:53.017+0900 [DEBUG] using github.com/hashicorp/go-tfe v1.36.0 2023-11-08T11:43:

                                                    Terraformのログレベルを調整する方法(TF_LOG)
                                                  • AWS Step Functionsで議事録自動化フローを作成しました(途中経過) - Qiita

                                                    はじめに 議事録自動化に取り組んでおりその途中経過を記載します。 S3に格納してある動画を文字起こしして要約してくれるところまでのフローをAWS Step Functionsで作成しました。 AWS Step Functionsワークフロー AWS Step Functionsワークフローの全体像はこんな感じです。 処理の流れを簡単に説明します。 1.文字起こし Amazon Transcribeで、文字起こし処理結果をjsonファイルで出力 2.抽出 AWS Lambdaでjsonファイルから要約に必要な文字起こし情報のみ抽出し、txtファイルで出力(元のjsonファイルではサイズが大きすぎて、AIが処理できないため) 3.要約 txtファイルをプロンプトに入力し、Amazon Bedrockで要約した結果をtxtファイルで出力(AIの呼び出しもAWS Lambdaを使用) なので入力は

                                                    1