並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 30 件 / 30件

新着順 人気順

arnの検索結果1 - 30 件 / 30件

  • S3 + CloudFront構成のSPAでWAFによるブロックが効かないときの解決策 - Nealle Developer's Blog

    はじめに SREチームの森原(@daichi_morihara)です。今後は積極的に発信していこうという誓いを込めてXのアカウントを作成しました。 今回はEC2+ALBでホストしていたフロントエンドをS3+CloudFrontに移行する際に起きた問題について紹介しようと思います。移行後のフロントエンドのインフラ構成としては下の図の通りで、S3の前段にCloudFrontを配置しており、CloudFrontに紐づいたWAFがアクセス制限を行います。 フロントエンドのインフラ構成図 ここでハマった問題というのが「CloudFrontに紐づいたWAFが、なぜかブロックすべきアクセスまで通してしまう…?」というものでした。 本記事では問題の原因と、それに対する解決策を共有していきます。もしかすると気づかずのうちに同じ状況になっている可能性もあると思うのでご参考にしていただけると幸いです。 問題の原

      S3 + CloudFront構成のSPAでWAFによるブロックが効かないときの解決策 - Nealle Developer's Blog
    • Datadogのメトリクス収集をAPIポーリングからCloudWatch Metric Streamsへ移行した話 - LayerX エンジニアブログ

      こんにちは!バクラク事業部 Platform Engineering部 SREグループの id:sadayoshi_tadaです。 みなさんは監視ツールとして何を使われていますか?バクラクでは、監視にDatadogを使用しています。この記事ではDatadogのメトリクス収集の課題とそれに対する改善について書きます。 Datadogに収集するメトリクスにおける課題 CloudWatch Metric Streamsとは CloudWatch Metric Streamsで収集するメトリクスのフィルタリング Kinesis Data Firehoseを経由したDatadogへのメトリクス転送実装 CloudWatch Metric Streamsへの切替時の考慮点 切り替え後の変化と課題 まとめ 最後に Datadogに収集するメトリクスにおける課題 バクラクではサービスの実行基盤としてAWS

        Datadogのメトリクス収集をAPIポーリングからCloudWatch Metric Streamsへ移行した話 - LayerX エンジニアブログ
      • AWS での AI エージェント開発を 2 倍速にする Inline Agent SDK - Qiita

        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 2025 年は AI エージェント元年とも呼ばれ、日々アップデートされる技術の検証に忙しい方も多いと思います。AWS では Amazon Bedrock Agent を利用して AI エージェントの開発が出来ます。出来ますが・・・が、仕様の変更頻度が高い状況では Lambda の事前デプロイやバージョン管理などが手間になっていました。 Amazon Bedrock Inline Agent SDK は AWS から実験的に公開されている SDK で開発の速度に重点を置いています。Langfuse や Phoenix と連携した Obse

          AWS での AI エージェント開発を 2 倍速にする Inline Agent SDK - Qiita
        • Claudeにばかり気を取られてた…エンベディングモデル側の最大トークン数 - Qiita

          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 内容 Amazon Bedrockのナレッジベース機能を使って、RAG(Retrieval-Augmented Generation)システムを構築します。RAGシステムでは、テキスト情報をベクトルに変換するエンベディングモデル、ユーザーの入力に基づいて回答を生成するテキスト生成モデルなどの基盤モデルを利用するのが一般的です。最近のテキストモデルは多くのトークンを扱うことが出来ますが、エンベディングモデル側の最大入力トークン数に注意しておく必要があります。 ベクトルDBに情報を格納する際の流れ 情報をベクトルデータベースに登録する際の処

            Claudeにばかり気を取られてた…エンベディングモデル側の最大トークン数 - Qiita
          • [アップデート] Amazon ECS のアカウント設定でログドライバーのデフォルトブロッキングモードを指定できるようになりました | DevelopersIO

            [アップデート] Amazon ECS のアカウント設定でログドライバーのデフォルトブロッキングモードを指定できるようになりました こんにちは!クラウド事業本部コンサルティング部のたかくに(@takakuni_)です。 Amazon ECS のアカウント設定でログドライバーのデフォルトブロッキングモードを指定できるようになりました。 ログドライバーのブロッキングモード まず初めにログドライバーのブロッキングモードについておさらいします。 これは、awslogsなどのログドライバーが、 CloudWatch Logs などのログ送信先へ送信不良を起こした際に、どのような挙動を取るか指定するためのオプションです。 AWSLogs コンテナログドライバーのノンブロッキングモードによるログ損失の防止 | Amazon Web Services ブログ より画像引用 モードは 2 種類あり、次のよう

              [アップデート] Amazon ECS のアカウント設定でログドライバーのデフォルトブロッキングモードを指定できるようになりました | DevelopersIO
            • 中国発通販アプリtemu,SHEINの実態:セキュリティリスク、規制状況、そして巨額ステマ戦略の裏側【怪しい?危険性?】 - 社内SEゆうきの徒然日記

              www.nikkei.com youtu.be トランプ関税の真の目的を読んだほうがいいな・・・ 世界的人気を博している中国発の通販アプリ「Temu」や「SHEIN」。驚くほどの低価格で多様な商品を提供するこれらのプラットフォームは、日本を含む世界各国で急速にユーザー数を拡大していますが、その裏で多くのセキュリティ問題や規制強化の動きが進んでいます。さらに、日本では多くのYouTuberに対して法外な金額の広告費をばら撒き、ステルスマーケティングを展開している実態も明らかになってきました。この記事では、中国発通販アプリのセキュリティリスク、世界各国の規制状況、そして異常なマーケティング戦略の背後にある真の目的について徹底解説します。 大前提としてtemu SHEINの運営元親会社は同一であることを押さえておく必要があります。そして両アプリとも最初に日本のテレビがこぞってステマ報道攻勢を仕掛

                中国発通販アプリtemu,SHEINの実態:セキュリティリスク、規制状況、そして巨額ステマ戦略の裏側【怪しい?危険性?】 - 社内SEゆうきの徒然日記
              • AWS Step FunctionsでConnectの通話記録をBacklogに自動起票する際、課題の担当者を対応エージェントに設定する | DevelopersIO

                はじめに 以前、Amazon Connectで受けた問い合わせを自動的にBacklogのチケットとして起票する仕組みを ブログにしました。2つ目の記事では、問い合わせレコードの重複配信対策方法をブログにしました。 Amazon Connectの通話記録をStep Functionsで処理し、Backlogに自動起票させてみた Amazon Connectの通話記録をKinesis Data Streamsに配信時、Step Functionsでデータの重複対策を実装する 今回は、電話対応した際に自動起票されるチケットの担当者を、AWS Step Functionsで実際に対応したエージェントに設定する方法をご紹介します。 担当者を実際に対応したエージェントにすることで、自動起票されたチケットにすぐ気づき、対応履歴を即座に記載できるため、チケット管理がしやすくなります。 なお、本記事は前回の

                  AWS Step FunctionsでConnectの通話記録をBacklogに自動起票する際、課題の担当者を対応エージェントに設定する | DevelopersIO
                • Amazon Bedrockでリランクモデルを有効化する方法とログ確認手順 - Qiita

                  内容 Amazon Bedrockのナレッジベースで構築したRAGシステムの回答精度を向上させるため、リランク機能の検証を行います。以下記事に記載のリランクモデルAmazon Rerank 1.0を使用してみます。 イメージ イメージは下記のようになります。ユーザからの入力をエンベディングモデルでベクトル変換後、リランクモデルを使用して、ベクトル検索でドキュメントのリスト取得・ランク付けを実施します。ランク付けされた上位コンテンツをもとに基盤モデルで回答生成後、最終的な回答をユーザへ返す流れです。 設定 モデル呼出ログの有効化 リランク処理が実際に行われているかを確認するため、モデル呼び出し時のログを有効化します。 事前にIAMロールとCloudWatch Logsのロググループを作成後、Bedrockの設定画面からログ記録を有効にします。 ロググループ内にログストリームが作成されました。

                    Amazon Bedrockでリランクモデルを有効化する方法とログ確認手順 - Qiita
                  • S3 + CloudFront構成のSPAでWAFによるブロックが効かないときの解決策 - Nealle Developer's Blog

                    はじめに SREチームの森原(@daichi_morihara)です。今後は積極的に発信していこうという誓いを込めてXのアカウントを作成しました。 今回はEC2+ALBでホストしていたフロントエンドをS3+CloudFrontに移行する際に起きた問題について紹介しようと思います。移行後のフロントエンドのインフラ構成としては下の図の通りで、S3の前段にCloudFrontを配置しており、CloudFrontに紐づいたWAFがアクセス制限を行います。 フロントエンドのインフラ構成図 ここでハマった問題というのが「CloudFrontに紐づいたWAFが、なぜかブロックすべきアクセスまで通してしまう…?」というものでした。 本記事では問題の原因と、それに対する解決策を共有していきます。もしかすると気づかずのうちに同じ状況になっている可能性もあると思うのでご参考にしていただけると幸いです。 問題の原

                      S3 + CloudFront構成のSPAでWAFによるブロックが効かないときの解決策 - Nealle Developer's Blog
                    • 【AWS】CDKでApi Gatewayを`cdk deploy`コマンドで自動デプロイまで実現する方法 - Qiita

                      概要 AWS CDKでApi Gatewayを構築後、何度もエンドポイントを追加・削除したりする検証作業をしていると 「毎回管理コンソールに行ってデプロイボタン押すの面倒だなぁ...」 と思うことありませんでしょうか。 cdk deployコマンドで一緒にデプロイまでしてくれたらいいのにな、と思い、調査してみたところ、実現できたので、紹介します。 方法 調べてみると、aws公式のrepostで紹介されていました。 上記記事によれば、自動でデプロイさせたい場合は、以下ののような方法があるらしい this.myApi = new apig.RestApi(this, 'MyApi', { deploy: false, }); // force APIG deployment to be recreated every time even if no changes const prodDepl

                        【AWS】CDKでApi Gatewayを`cdk deploy`コマンドで自動デプロイまで実現する方法 - Qiita
                      • Lambda 関数を利用して EC2 Auto Scaling グループの、最小の希望する容量が 0 になったことをトリガーに SNS 通知するように実装してみた | DevelopersIO

                        はじめに テクニカルサポートの 片方 です。 今回は Lambda 関数を利用して EC2 Auto Scaling グループの、最小の希望する容量が 0 になったことをトリガーに SNS から通知する仕組みを実装してみました。 実装してみた 以下の順番で実装します。 SNS 作成 実行ロール作成 Lambda 関数作成 EC2 Auto Scaling の作成については省かせていただきます。弊社ブログを参考に作成してください。 SNS 通知機能として SNS を利用します。SNS トピックおよびサブスクリプションを作成します。 Protocol (プロトコル) として Email (E メール) を選択して作成しました。後に arn が必要なので控えます。 実行ロール 信頼関係 { "Version": "2012-10-17", "Statement": [ { "Effect": "

                          Lambda 関数を利用して EC2 Auto Scaling グループの、最小の希望する容量が 0 になったことをトリガーに SNS 通知するように実装してみた | DevelopersIO
                        • AWSアクセスキー管理について考えてみる | フューチャー技術ブログ

                          はじめにTechnology Innovation Groupの神崎です。 社内Slackにてユーザーが利用するAWSアクセスキー管理のベスプラとはなんぞや?という話題が出たことをキッカケにして、改めて自分の理解の棚卸も兼ねて、どういう管理方法をすればいいのかを考えてみました。 そもそもAWSアクセスキーを使わないのがベスプラではあるのは間違いないのですが、 顧客へのアカウント引き渡し等がある、フェデレーション先に基盤がある社内環境と繋がっていないなど、様々な理由でアクセスキーを使わざるを得ない場面はあり、そういった場面でどうすべきかを整理しました。 TL;DRアクセスキーは、STSトークン(Security Token Serviceトークン)を取得する時のみ利用するSTSトークン取得時は、アクセスキーだけでなく、MFAによる認証を必須とするアクセスキーやSTSトークンはプレーンテキスト

                            AWSアクセスキー管理について考えてみる | フューチャー技術ブログ
                          • AWS SDK for Python (Boto3)でスイッチロールする方法、権限設定などを紹介 | Tech ブログ | サーバ運用保守・運用監視なら JIG-SAW OPS

                            本記事のポイント 当記事では、AWS SDK for Python (Boto3)でスイッチロールするために必要な権限設定、準備、設定方法などを網羅的にご紹介します。 はじめに AWS IAM (Identity and Access Management:アイアム)の運用において、IAMユーザーに閲覧権限のみを付与し、AWSリソースを操作する必要に迫られた場合のみ操作権限のあるロールに切り替えて作業をする、といった場面はよく見受けられます。 そのようなユーザーがAWS SDK for Python (Boto3)でAWSリソースを操作したいとなった場合、boto3上でも同様にスイッチロールする必要があります。当記事では、Boto3でスイッチロールする方法をご紹介します。 事前準備 IAM Role作成 スイッチロールを行うためには当然ロールが必要となりますので、はじめにIAM Role

                              AWS SDK for Python (Boto3)でスイッチロールする方法、権限設定などを紹介 | Tech ブログ | サーバ運用保守・運用監視なら JIG-SAW OPS
                            • AWS Lambdaレイヤー化&自動バージョン管理 ― 作業全体のまとめ - Qiita

                              AWS Lambda Layer + SAM まとめ 現在進めているプロジェクトにおいて、これまではlambdaのコードを直接いじっていたが、同じ関数を何度も繰り返し利用する場面とコードの更新の際に全ての関数を開き、モジュール化しているコードを修正しなければならなかった。今回、AWS SAMを利用することで、モジュールのレイヤー化及びその環境変数やバージョン管理を一括に行う。 この記事は、MySQL 接続ユーティリティを共通コードとして Lambda Layer 化し、AWS SAM を使って 自動バージョン管理&全関数反映を行う手順の備忘録である。 SAMを用いることによってレイヤーの一元管理が可能となり、レイヤー機能の更新の際にすべての任意のレイヤーを使用しているすべての関数に対してバージョンアップが可能になる。 目的 必要な Python ライブラリを Layer にまとめる sam

                                AWS Lambdaレイヤー化&自動バージョン管理 ― 作業全体のまとめ - Qiita
                              • Windows PythonのライブラリをLambdaで使おうとしたときにハマったこと - Qiita

                                LambdaでPythonライブラリを使うには PythonのプログラムをLambdaに移行する機会があったのですが、その際に色々と手こずったので、誰かの助けに慣れればと思い記事を書きます。 Lambdaは、AWSが提供するサーバーレスコンピューティングサービスですが、通常のPythonプログラムのようにpip install ライブラリ名でNumpyやPandasなどのライブラリを入れることができません。 Lambdaではレイヤーという機能で標準ライブライ以外のライブラリを使用することができます。 レイヤーの特徴 ライブラリと関数を分離することができ、他の関数にも使用できる 関数のデプロイパッケージのサイズを小さくできる S3のファイル、zipファイル、ARNから作成することができる zipファイルのサイズは50MBを超えてはいけない 最大5つのレイヤーをLambda関数につけることがで

                                  Windows PythonのライブラリをLambdaで使おうとしたときにハマったこと - Qiita
                                • Amazon Personalizeハンズオン!! - Qiita

                                  Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 内容 ・趣旨目標 ・参考サイト ・使用できるサービス ・概要理解 ・やっていく 趣旨目標 AWSにおいてAIを活用したサービスをハンズオンを通じて理解する。 AI/ML サービスの全体感を掴む。なんなら業務改善も視野に入れたい。 参考サイト 使用するサービス ・Amazon Personalize 概要理解 最初にAI/ML サービスとは。 分かりやすい説明 https://www.ctc-g.co.jp/solutions/cloud/column/article/27.html 公式資料 https://aws.amazon.com

                                    Amazon Personalizeハンズオン!! - Qiita
                                  • tfcmt: GitHub Actions から terraform plan / apply の出力結果をプルリクエストにコメントしよう - kakakakakku blog

                                    GitHub Actions で terraform plan / terraform apply を実行するときに出力結果をイイ感じにプルリクエストにコメントしたいという場面があった💬 自前でゴニョゴニョと実装するのではなく tfcmt を試してみたらとても便利だったので,検証ログも兼ねてまとめておこうと思う❗️ suzuki-shunsuke.github.io 動作確認 イイ感じ \( 'ω')/ plan 結果 apply 結果 GitHub Actions ワークフロー 👾 .github/workflows/terraform-plan.yml terraform plan を実行するときに tfcmt plan --patch -- terraform plan のように tfcmt plan コマンドを組み合わせれば OK👌 あと --patch オプションを指定する

                                      tfcmt: GitHub Actions から terraform plan / apply の出力結果をプルリクエストにコメントしよう - kakakakakku blog
                                    • それぞれ異なるリージョンの CDK スタックで作成された AWS WAF Web ACL と CloudFront Distribution の紐付けができるのか試してみた | DevelopersIO

                                      こんにちは、製造ビジネステクノロジー部の若槻です。 グローバルリソースである Amazon CloudFront Distribution に対して紐付けられる AWS WAF Web ACL は、北部バージニア (us-east-1) リージョンに作成される必要があるという制限があります。 その場合に、それぞれ異なるリージョンの AWS CDK スタックで作成された AWS WAF Web ACL と CloudFront Distribution の紐付けができるのか?試す機会があったので共有します。 試してみた クロススタック参照手法 今回、CDK においてクロススタック参照を行うのですが、その手法としてスタック同士が密結合とならない「パラメーターストア経由」の参照方法を利用します。 Web ACL の作成 まず、北部バージニア (us-east-1) リージョンに Web ACL

                                        それぞれ異なるリージョンの CDK スタックで作成された AWS WAF Web ACL と CloudFront Distribution の紐付けができるのか試してみた | DevelopersIO
                                      • BedrockのRAGチャットに「出典はどこ?」を追加 - Qiita

                                        Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 内容 Amazon Bedrockのナレッジベースを活用し、RAG(Retrieval-Augmented Generation)システムを構築します。Streamlitを用いたチャットアプリケーションを想定し、以下のような質問に回答できるシステムを構築します。ユーザーが回答を得た後、その情報の正確性や信頼性を確認したい場面があると思います。この記事では、比較的簡単に回答の出典元情報を表示する機能を追加する方法を記載します。 前提 事前に以下の記事のように、RAGで使用するデータをチャンク分割をしておきます。 このように分割したファイル

                                          BedrockのRAGチャットに「出典はどこ?」を追加 - Qiita
                                        • 【Amazon QuickSight】共有フォルダのエクスポートとインポートについての検証 - Qiita

                                          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに こんにちは。 株式会社ジールの@y_seimiya_zdhです。 2024年10月にアップデートが発表された「Amazon QuickSight でプログラムによる共有フォルダのエクスポートとインポートがサポート開始」について検証を行いました。 QuickSightではいくつかの方法で、アセットの移行やバックアップが可能ですが、今回のアップデートではAssetBundleJob系のAPIについて、共有フォルダを指定してフォルダ内のアセットを再帰的に取得することが可能になりました。 1.背景 AssetBundleとは ダッシュ

                                          • Amazon Bedrock Data Automation によるコンテキスト広告向けビデオインサイトの自動抽出 | Amazon Web Services

                                            Amazon Web Services ブログ Amazon Bedrock Data Automation によるコンテキスト広告向けビデオインサイトの自動抽出 本記事は 2025 年 4 月 17 日に AWS Machine Learning Blog で公開された Automate video insights for contextual advertising using Amazon Bedrock Data Automation を翻訳したものです。翻訳はソリューションアーキテクトの川戸渉が担当しました。 ブログ翻訳時点 (2025 年 4 月) では、Amazon Bedrock Data Automation は英語をサポートしています。他の言語は未サポートです。 コンテキスト広告とは、デジタルコンテンツの内容に関連した広告を表示する戦略です。この手法によって視聴者が見

                                              Amazon Bedrock Data Automation によるコンテキスト広告向けビデオインサイトの自動抽出 | Amazon Web Services
                                            • Amazon Bedrock Knowledge Bases Retrieval MCP Server を Claude Desktop に接続しナレッジベース内のコンテキスト元に回答を生成してみた | DevelopersIO

                                              Amazon Bedrock Knowledge Bases Retrieval MCP Server を Claude Desktop に接続しナレッジベース内のコンテキスト元に回答を生成してみた こんにちは!クラウド事業本部コンサルティング部のたかくに(@takakuni_)です。 MCP 触っていますでしょうか。AWS からも、多くの MCP サーバーが登場しており、ユーザーにとって便利になっています。 今回はその中の Amazon Bedrock Knowledge Bases Retrieval MCP Server を触ってみたいと思います。 Amazon Bedrock Knowledge Bases Retrieval MCP Server Amazon Bedrock Knowledge Bases Retrieval MCP Server は、 Amazon Bedro

                                                Amazon Bedrock Knowledge Bases Retrieval MCP Server を Claude Desktop に接続しナレッジベース内のコンテキスト元に回答を生成してみた | DevelopersIO
                                              • [Auth0] Auth0とAWSのOIDC連携でセキュアなS3アクセス制御を実現する | DevelopersIO

                                                こんにちは。 業務効率化ソリューション部の西川です。 Webアプリケーションを開発していると、例えば「ユーザーごとにS3バケットを用意して、そこに直接ファイルをアップロードできるようにしたい」という要件があるかもしれません。 これって、意外と悩ましい問題になりそうですよね。Auth0でユーザー認証はできているけど、そのユーザーにどうやってAWSのリソースにアクセスさせるか...。 今回は、このような課題を解決するために、Auth0とAWSのOIDC連携を使う方法をご紹介します。 特にIAMユーザとの連携でリソースアクセスの権限を制御したい方や外部ID連携を検討されているエンジニアの方に役立つ内容になるんじゃないかと思います。 はじめに 外部ID連携って何がうれしいの? 外部ID連携(OIDC連携)は、認証基盤とクラウドサービスを連携させる仕組みです。 Auth0のような認証基盤を使うことで

                                                  [Auth0] Auth0とAWSのOIDC連携でセキュアなS3アクセス制御を実現する | DevelopersIO
                                                • 【技術記事】AWS CLIのクレデンシャルにIAMロールを使用する | 株式会社AgilityShare

                                                  EC2上のOSにAWS CLIを導入して、特定のAWSリソースに対してアクセスする際、通常ではアクセスキーとシークレットアクセスキーの両方を指定するかと思います。ただ、セキュリティの観点でキー情報をファイルに平文で記載しておくことはNGとされているので、これを回避する方法を備忘として記載したいと思います。 はじめにEC2を使用している場合、AWS CLIが導入されているEC2にアタッチされたIAMロールを使って、認証情報(アクセスキーとシークレットアクセスキー)を渡してあげることができます。 基本的には、対象リソースに対して行いたい操作が許可されているポリシーがロールにアタッチされており、そのロールがEC2にアタッチされていれば、特にAWS CLI側のconfig等にアクセスキーやシークレットアクセスキーを記述する必要はないです。 これは、インスタンスプロファイル認証という、IAMロールの

                                                    【技術記事】AWS CLIのクレデンシャルにIAMロールを使用する | 株式会社AgilityShare
                                                  • BedrockとStreamlitでメタデータによるドキュメントを絞るRAG検索 - Qiita

                                                    メタデータファイルの追加 ベクトルDBに挿入するドキュメントをS3上に保存します。例としてdocument01.pdfやdocument02.pdfを作成していますがこの際、メタデータ用のファイルを追加します。メタデータファイル名はドキュメント名.metadata.jsonになります。このファイルの中にtitleというメタデータを追加しておきます。 Streamlitのプログラム 下記がプログラム全文になります。 import streamlit as st import boto3 import json BEDROCK_MODEL = 'anthropic.claude-3-haiku-20240307-v1:0' KNOWLEDGEBASE_ID = '******' MODEL_ARN = "arn:aws:bedrock:ap-northeast-1::foundation-mo

                                                      BedrockとStreamlitでメタデータによるドキュメントを絞るRAG検索 - Qiita
                                                    • Amazon Bedrockでのクエリ分解の設定方法 - Qiita

                                                      内容 Amazon Bedrockのナレッジベースで構築したRAGシステムの回答精度を向上させるため、クエリ分解の検証を行います。 イメージ イメージは下記のようになります。ユーザがプロンプトから「Amazon Bedrockの特徴と利点と使い方と注意点」といった質問をします。こういった色々な情報が入った複雑なクエリを事前に「Amazon Bedrockの特徴」や「Amazon Bedrockの利点」といったサブクエリに分割してくれる機能です。分割後の複数のクエリがベクトル変換後、ベクトルDBに問合せを行い、回答を作成します。最終的な回答はClaude3などの基盤モデルで作成後、ユーザへの応答を行います。 設定 RetrieveAndGenerateAPIでクエリ分解の設定を行います。以下はテスト用プログラムの全文です。 import boto3 import json REGION =

                                                        Amazon Bedrockでのクエリ分解の設定方法 - Qiita
                                                      • TerraformでAWS Backupを作成して、 EC2の自動バックアップを行う|toshi

                                                        要件TerraformでAWS Backを作成して、 EC2の自動バックアップを行う タスクTerraformでAWS Backを作成して、 EC2の自動バックアップを行う バックアップする用のEC2をterraformで作成する 参考記事▼ AWS Backupに関して、わかりやすく解説してある!! 学べることEC2のバックアップのやり方がわかる ヒントmain.tf # ------------------------------ # variable # ------------------------------ variable "ec2_name" { default = "sandbox-ec2" } ########################################## # aws-backup ################################

                                                          TerraformでAWS Backupを作成して、 EC2の自動バックアップを行う|toshi
                                                        • AWS EventBridge で event を検知してみた - Qiita

                                                          はじめに 「AWS 上でなにか event が発生したときに検知 -> 特定の動作を実行する」 といったことをやりたいときありますよね。(よく AWS の資格試験とかで問題に出てきてるやつです) そんなときに役立つのが AWS EventBridge です。 今まで、EventBridge は定期実行にしか使ってなかったというのもあり新鮮だったので記事に書き起こしました。 あと、意外に event を拾うという Eventbridge の使い方記事に転がってないので誰かの参考になればと思います。 サマリー AWS RDS の autoscaling の event を EventBridge で検知する コストタグを付ける 環境 aws-cdk : 2.107.0 内容 AWS Aurora では autoscaling を設定でき、任意の時間・CPU 使用率に応じてリードレプリカを増やし

                                                          • Raspberry Pi を ECS Anywhere に登録し Nginx タスクを起動してみた | DevelopersIO

                                                            こんにちは!クラウド事業本部コンサルティング部のたかくに(@takakuni_)です。 とある経緯で Raspberry Pi を触ることになりまして、練習として AWS と繋げたくなりました。 よくあるケースだと、IoT Core なのかなと思いますが、私は ECS が好きなため、今回は Raspberry Pi を ECS Anywhere で管理して Nginx を立ち上げてみたいと思います。 練習機器 利用した Raspberry Pi のスペックは以下のとおりです。(OS 設定済みのものを利用します) 立ち上げるコンテナ自体は軽量なものなので、もう少しスペック落としても動くと思います。 Raspberry Pi 4 CPU 4 vCPU メモリ 8 GB OS: Debian 12 練習機器を貸してくれた SIN さん、ありがとうございます。 ECS Anywhere においての

                                                              Raspberry Pi を ECS Anywhere に登録し Nginx タスクを起動してみた | DevelopersIO
                                                            • 【小ネタ】Step Functions の HTTP Endpoint は Authorization ヘッダーをサポートしていない | DevelopersIO

                                                              【小ネタ】Step Functions の HTTP Endpoint は Authorization ヘッダーをサポートしていない Step Functions には HTTP Endpoint という、Lambda を用意せずともステートマシン内で HTTPS API を呼び出すことができるタスクが用意されています。 re:Invent 2023 で発表された機能で、発表時の紹介記事は以下になります。 ただこの HTTP Endpoint にはサポートしていない HTTP ヘッダーがあり、ドキュメントに以下が列挙されています。 You can't use the following headers in your HTTP Task definition. If you use these headers, the HTTP Task fails with the States.Run

                                                                【小ネタ】Step Functions の HTTP Endpoint は Authorization ヘッダーをサポートしていない | DevelopersIO
                                                              1