並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 31 件 / 31件

新着順 人気順

Terraformの検索結果1 - 31 件 / 31件

  • AWSエンジニアに必要な知識

    はじめに 私は2024年1月からAWS設計構築のプロジェクトに入り、現在設計を進めている真っ只中なのですが、プロジェクトにアサインされてからの気づきについて書き留めてきたいと思いましたので本記事を執筆いたします。 まず、結論ファーストでお話させていただきますが、タイトルの「AWSエンジニアにとって必要な知識」についてはIT全般の知識を7割程度把握 しておくのが自分的ベストプラクティスかと思います。 ある知識に特化しているよりも、全体的に網羅されている方がことAWSにとっては必要な要素ではないかと考えています。 なぜなら、設計において任されるタスクは自分の得意としていない分野においても任されるからです。 ではその全体の知識って具体的にどんなことを知っておいたら良いの?について紹介していきます。 Linuxの知識 言わずもがな、Linuxの知識は必須になってきます。 前提として設計段階でEC2

      AWSエンジニアに必要な知識
    • 初めてのSREから3年半でやったことの振り返り

      レバテック開発部DevOps推進グループSREチームの蒲生です。 このたびレバテックを退職することになりました。 今までやってきたことを振り返ることで、お前普段なんもやってなかったやろと思っている方への説明とまだまだやらなアカンことあるけど許してねって気持ちを吐き出したいなと思います。 初めてSREとして働き始めてからレバテック事業でのSREチーム結成、活動していくまでで「やってよかったな」と思ったことを紹介していきます。(僕個人ではなくチームでの取り組み) 「こうしておけばよかったな」という懺悔も混ぜておきます。 1. 監視体制作り 初めてのSREだったので定石通り、こちらのピラミッド通りにプラクティスを実践しました。 (O’Reilly Site Reliability Engineeringより) 簡単な状況 監視設定はCloudWatch CDKでリソースのCPUやメモリ、スレッド

        初めてのSREから3年半でやったことの振り返り
      • 生成AIを活用したシステム開発の現状と展望

        Copyright (c) The Japan Research Institute, Limited 生成AIを活用したシステム開発 の現状と展望 - 生成AI時代を見据えたシステム開発に向けて - 株式会社日本総合研究所 先端技術ラボ 2024年09月30日 <本資料に関するお問い合わせ> 伊藤蓮(ito.ren@jri.co.jp) 近藤浩史(kondo.hirofumi@jri.co.jp) 本資料は、作成日時点で弊社が一般に信頼できると思われる資料に基づいて作成されたものですが、情報の正確性・完全性を弊社で保証するもので はありません。また、本資料の情報の内容は、経済情勢等の変化により変更されることがありますので、ご了承ください。本資料の情報に起因して閲覧者 及び第三者に損害が発生した場合でも、執筆者、執筆取材先及び弊社は一切責任を負わないものとします。本資料の著作権は株式会社日

        • terraform-aws-provider 5.68.0 で非推奨になった aws_iam_role の inline_policy の改修を行ったときのメモ✍ - 継続は力なり

          タダです. terraform-aws-provider 5.68.0 で以下の引用文にあるように aws_iam_role にて inline_policy を使用するのが非推奨になり aws_iam_role_policy が代替先になりました.この記事では,そのリソースの改修を行った備忘録を書きます. resource/aws_iam_role: The inline_policy argument is deprecated. Use the aws_iam_role_policy resource instead. github.com inline_policy から aws_iam_role_policy へ書き換え aws_iam_role のinline_policy を使用していた下記の IAM リソースがあったとします.この状況で terraform plan を試す

            terraform-aws-provider 5.68.0 で非推奨になった aws_iam_role の inline_policy の改修を行ったときのメモ✍ - 継続は力なり
          • 2024/10/31 に多くの Azure サービスで TLS 1.0 / TLS 1.1 サポートが廃止されるので対応する - しばやん雑記

            以下で公開されているアドバイザリー通り、今月末の 10/31 に Azure では全体的に TLS 1.0 と TLS 1.1 のサポートが廃止され、11/01 からは各種 Azure サービスを利用するためには TLS 1.2 以上が必須となります。 対象となるサービスが非常に多いため、影響範囲も広くなりがちですが殆どのケースでは問題ないでしょう。 既に大半のトラフィックは TLS 1.2 が使われているはずですが、TLS 1.2 をサポートしていない古い環境の存在や .NET Framework を使っている場合は明示的に TLS 1.2 を回避する設定が流行った時があるため、いま一度見直しておくのが良さそうです。 一部のサービスでは Azure へのリクエスト時だけではなく、Webhook による Azure から外部へのリクエスト時にも適用されるため、受け側も TLS 1.2 への

              2024/10/31 に多くの Azure サービスで TLS 1.0 / TLS 1.1 サポートが廃止されるので対応する - しばやん雑記
            • estieでのナイス基盤な事例の紹介 ~Preview環境実装~ - estie inside blog

              estieでSRE, Platform Engineeringを推進している徳原です。 estieでは、組織横断でSREプラクティスやPlatform Engineeringを推進するPlatformチームが発足しました。この記事では、その取り組みの一つであるPreview環境実装について紹介させていたします。 Preview環境の導入 Preview環境とは、プルリクエストで提案された変更内容をもとに、自動的にコンテナイメージをビルドし、専用のURLを発行してその動作を確認できる環境のことです。この仕組みにより、コードレビュー時にコードだけではなく、実際の画面での動作も確認できるという大きなメリットがあります。一般的に、Preview環境の利点としては「コードだけでなく、UIや挙動も視覚的に確認できる」といった点がよく挙げられますが、estieではさらに次のような背景を考慮し、導入を決定

                estieでのナイス基盤な事例の紹介 ~Preview環境実装~ - estie inside blog
              • AWSのECS on FargateのARM化によるコスト最適化 〜調査・計画・移行、そして本番で起きた課題〜 - inSmartBank

                こんにちは。スマートバンクSREの@uehiraです! SREチームはサービスの成長につれて増えていくインフラコストを最適化することをミッションとしており、当記事ではコスト最適化の一環として、我々が管理するクラウドリソースをX86ベースのプロセッサからARMベースのプロセッサに切り替えた試みについてご紹介します。 前提として、スマートバンクが提供する家計簿アプリB/43ではインフラ基盤としてAWSを採用していますので、本記事の内容はB/43のインフラ基盤の一部をGravitonへ移行した話となります。 なお、FinTechスタートアップとしてのAWSインフラ設計については以下の記事にまとめているのでぜひご覧ください! blog.smartbank.co.jp 背景 初めになぜプロセッサを切り替えることにしたのか、背景を簡単に説明いたします。 コスト最適化をミッションとして持つSREチーム

                  AWSのECS on FargateのARM化によるコスト最適化 〜調査・計画・移行、そして本番で起きた課題〜 - inSmartBank
                • Terraform Providerを使ったcron式のチェック - カンムテックブログ

                  SREの菅原です。 カンムのサービスのバッチ処理は基本的にEventBridge Scheduler+ECSで動いており、バッチのスケジュールはterraformで以下のように定義されています。 module "kanmu_batch" { # バッチまわりはモジュール化 source = "../modules/batch" for_each = { hogehoge-batch = { schedule_expression = "cron(0 0 * * ? *)" command = ["/batch/bin/hoge", "hikisu"] is_enabled = true } fugafuga-batch = { schedule_expression = "cron(5 0 * * ? *)" command = ["/batch/bin/fuga", "hikisu"]

                    Terraform Providerを使ったcron式のチェック - カンムテックブログ
                  • Kinesis Data FirehoseでDatadogへお手軽データ転送

                    ログの集約先をDatadogにしたいため、AWSから出てくるログをDatadogへ送る事になった際に調べたことをまとめました。 結論 Kinesis Data Firehosから特定の外部サービスにデータを転送できるようになり、この方法でDatadogへデータを転送できます。 Analyze logs with Datadog using Amazon Kinesis Data Firehose HTTP endpoint delivery 具体的な方法 基本的にはHTTP Endpoint (e.g. New Relic) Destinationを参考にすれば対応できます。 *Datadog側でAPI Keyを作成しておく必要があります。 resource "aws_cloudwatch_log_group" "log_group" { name = "sample-app" } res

                      Kinesis Data FirehoseでDatadogへお手軽データ転送
                    • 社内サーバー上のJenkinsジョブからAWS Codeサービス群にデプロイ処理を移行しました - シンクロ・フード エンジニアブログ

                      はじめまして、SRE チームの佐藤です。 SREチームの業務として、サービス信頼性向上のためのインフラの構築/改善や保守業務や、開発業務効率向上のためのCI/CD整備等に携わっています。 先日、社内サーバー上のJenkinsジョブで実装されていたビルド/デプロイの仕組みをAWS Code サービス群やAWS Step Functionsを利用した新構成へ移行しました。 今回はその対応や検討の経緯を紹介させていただきたいと思います。 移行の背景 既存構成 シンクロ・フードで提供しているサービスは基本的にRuby on Railsで構築されているのですが、昔から使っているシステムではJava (Seasar2)が利用されています。 Seasar2 から Railsへのリプレースを進めているためかなりの部分がRailsに移行されていますが、完全には移行完了できておらず、現時点でSeasar2側の

                        社内サーバー上のJenkinsジョブからAWS Codeサービス群にデプロイ処理を移行しました - シンクロ・フード エンジニアブログ
                      • 2年半のSRE業で行ってきた事の整理

                        直近2年半くらいの間にSREチームのリーダー(マネージャー)、ならびにシニアエンジニア(スタッフエンジニア)としてSRE業を行ってきました。 私は過去にSRE専業の経験はなく、この会社にもSREとして入ったはずではなかったのですが、なし崩し的に入社時の取り決めとは異なる職につくことになりました。 とはいえ、今までのキャリアはサーバーサイドエンジニア・バックエンドエンジニア中心ということもあり、アプリケーションの開発にあわせてシステムの構築や監視などもずっとやってきたので、SRE的なスキルは具備していたと思います。Datadogも何気に使いはじめて10年以上経ってます。 2年半の間、客観的に見て大したことはやってきてないですが、自分のこれまでとこれからを見通すための備忘録として、やってきたことをまとめてみたいと思います。 会社 会社は創業10年くらいの中小企業で、BtoC系。ビジネス規模とし

                          2年半のSRE業で行ってきた事の整理
                        • terraformで”Unsupported Terraform Core version”が起こった時の対処法 - Qiita

                          何が起こったか ある日、githubからAWSをterraformで構築するリポジトリをcloneしたときのこと。 │ Error: Unsupported Terraform Core version │ │ on version.tf line 2, in terraform: │ 2: required_version = "1.8.1" │ │ This configuration does not support Terraform version 1.9.1. To proceed, either choose another supported Terraform version or update this │ version constraint. Version constraints are normally set for good reason, so updat

                            terraformで”Unsupported Terraform Core version”が起こった時の対処法 - Qiita
                          • Go製DBスキーマ管理ツールのAtlasを触ってみた

                            はじめに 個人で開発をする際にDBのバージョン管理・マイグレーションに結構苦労したのもありGo製DBマイグレーションツールのAtlasを導入してみました。 使い勝手が良いツールで仕事でも使いたいなと思ったので、Quick Startの内容を追いかけながら特徴をまとめていきます。 Atlasとは Databaseのスキーマを管理・変更・可視化するためのツールです。 HCLもしくはSQLを使用し理想状態のスキーマを作成することで、Atlasが現在との差分を比較し変更してくれます。 対応するデータベースの種類も多く、またCLIでの利用・CICDでの利用の両方が想定されているためローカル開発と本番運用の両方に適用することが出来ます。 また、Atlas Cloudというクラウドサービスを利用することで作成したスキーマを可視化することが出来ます。 ログインしなくても他の人が作成したスキーマを見ることが

                              Go製DBスキーマ管理ツールのAtlasを触ってみた
                            • SSHトンネル使ってMySQLに接続してみた - Qiita

                              はじめに 先日業務でSSHトンネルとポートフォワーディングを使用する機会がありました。 今まで使ったことがなかったので、勉強と復習を兼ねて記事にしてみました。 やること 外部から直接アクセスできない環境で、SSHトンネルを使用して安全にDBにアクセスします。 例えばこのような場合です。 ローカルからWebサーバへSSH接続が可能 ローカルから直接DBにアクセスすることはできない DBにはWebサーバーからしかアクセスできない(Webサーバーが踏み台サーバーとして機能) SSHトンネルとは? SSHを使って作られる、暗号化された安全な通信路です。これを利用することで、リモートサーバーへの接続等を安全に行うことができます。 リモートのDBやサーバーに接続する際の「暗号化された専用のトンネル」を作るイメージです。 ポートフォワーディングとは? ポートフォワーディングは、SSHトンネルで使われる機

                                SSHトンネル使ってMySQLに接続してみた - Qiita
                              • [AWS IoT Core]容量が大きいファイルを取り扱う際にS3の署名付きURLを活用してファイルアップロードする | DevelopersIO

                                はじめに コンサルティング部の神野です。 デバイスからファイルなどの画像を送信する際、MQTTのペイロード上限は128KBのため、大きいファイルの取り扱いが難しいことがあります。 前回は認証情報プロバイダーを活用してファイルアップロードを実現しましたが、今回はS3の署名付きURLを活用してファイルアップロードを実装します。 署名付きURLについて 署名付きURLは、AWS S3で一時的なアクセス権を付与するための仕組みです。この仕組みを使用することで、通常はアクセス権のないユーザーやアプリケーション、そして本記事のケースではIoTデバイスに対して、特定のオブジェクトへの一時的なアクセスを許可することでS3へのアップロードを実現します。 実装イメージ 実装のイメージは下記となります。処理の流れとしては以下のように実装します。 デバイス側からMQTT通信で署名付きURL取得のリクエストをAWS

                                  [AWS IoT Core]容量が大きいファイルを取り扱う際にS3の署名付きURLを活用してファイルアップロードする | DevelopersIO
                                • [HCP Terraform 実践 その6] HCP Terraform を Terraform テンプレート化してプロビジョニングした話 - Qiita

                                  [HCP Terraform 実践 その6] HCP Terraform を Terraform テンプレート化してプロビジョニングした話AWSTerraformTerraformCloud これは何? HCP Terraform のワークスペース等のリソースをTerraform でプロビジョニングするまでの内容になります。 以前、寄稿した[HCP Terraform 実践 その1] Terraform Cloud 触ってみたをTerraform で作成する内容となります。 また、本記事で作成したテンプレートは以下に格納していますので、是非ご覧になっていただければ。 HCP Terraform のテンプレートについて プロバイダー「tfe」を使用して、HCP Terraform のワークスペースなどを作成することができます。 HCP Terraform における各リソース部分についての解説

                                    [HCP Terraform 実践 その6] HCP Terraform を Terraform テンプレート化してプロビジョニングした話 - Qiita
                                  • nat-instance(terraform-aws-nat-instance)を利用して発生したトラブルについてまとめ - Qiita

                                    はじめに 私が参画しているプロジェクトでは、Terraformを使ってAWS環境を管理しています。 AWSのコスト削減を目的に、terraform-aws-nat-instanceモジュールを導入し、NAT Gatewayの代わりにNAT Instanceを利用している箇所があります。 これを組み込んでいる具体的なシステムには触れませんが、チーム内専用で利用するようなシステム(仕組み)の中で使っています。 いつ動かすか分からない上、呼んだ時はすぐに動作して欲しいため、常時稼働させておく必要はあるのですがコストは掛けたくない、AWSのフルマネージドの恩恵までは不要、くらいの扱いなのでちょうど良かった感じです。 このモジュールはTerraformでサクッとnat-instanceを構築するのに便利な一方で、利用している中で予期せぬトラブルが発生しました。 その時のメモを残しておこうと思い書きま

                                      nat-instance(terraform-aws-nat-instance)を利用して発生したトラブルについてまとめ - Qiita
                                    • Amazon EventBridge API 送信先を利用してAWS Amplifyで配信している静的ページの定期リビルド機構を組んだ話 - NIFTY engineering

                                      はじめに こんにちは。ニフティ株式会社の添野です。 AWS Amplifyで配信している静的ページに対する定期リビルド機構を組む必要があったので、その際にAmazon EventBridge API 送信先を利用した話を共有します。 背景 社内のとあるサービスで利用する静的ページの配信基盤にAWS Amplifyを採用しており、そのページの中には定期的に変わるコンテンツが存在します。その仕様のため定期的にリビルドすることが必要になりました。最初はAWS Lambdaを利用してAWS AmplifyのIncomingWebHookを定期的に叩こうかなと思いましたが、AWS Lambda上のコードの管理やAWS LambdaランタイムのEOL対応、AWS Lambdaに対するメモリ設定など気にする項目が増えて、手間だなと思いました。そこでもう少し良さげな機能が無いかなと思い探してみたら、Ama

                                        Amazon EventBridge API 送信先を利用してAWS Amplifyで配信している静的ページの定期リビルド機構を組んだ話 - NIFTY engineering
                                      • ブレークポイントでコードを一時停止する  |  Chrome DevTools  |  Chrome for Developers

                                        ブレークポイントを使用して、JavaScript コードを一時停止します。このガイドでは、Terraform で宣言される各タイプの それぞれのタイプを使用するタイミングと設定方法を説明します。デバッグ プロセスのインタラクティブなチュートリアルについては、Chrome DevTools で JavaScript のデバッグを開始するをご覧ください。 各ブレークポイント タイプを使用する場合の概要 最も有名なブレークポイントのタイプはコード行です。ただし、コード行のブレークポイントは 特に、どこを見ればよいかわからない場合や、 構築できます。もう 1 つの API をいつどのように使えばよいのかを知ることで、デバッグの時間を節約できます。 あります。 ブレークポイントのタイプ状況

                                        • DynamoDBのCDCデータを利用して、ニアリアルタイムにDatabricksへ取り込む - KAKEHASHI Tech Blog

                                          こちらの記事はDatabricks Advent Calendar 2023の16日目の記事になります。 こんにちは。カケハシのデータ基盤チームでデータエンジニアをしている松田です。カケハシでは、2022年7月ごろから全社的なデータ活用基盤のプラットフォームとしてDatabricksを採用し、1年以上経過しました。 今回の記事では、DynamoDBの変更データキャプチャ(CDC)データを利用して、ニアリアルタイムにDatabricksへデータを取り込んだことについての投稿になります。 DynamoDBのCDCデータ利用でリアルタイム化とコスト削減 DynamoDBはカケハシのメインプロダクトであるMusubiで利用しており、そのデータをETL処理して社内でデータ利活用したり、BIツールのMusubi Insightで利用しています。今までは、DynamoDB Exportを利用して全件更新

                                            DynamoDBのCDCデータを利用して、ニアリアルタイムにDatabricksへ取り込む - KAKEHASHI Tech Blog
                                          • ペアーズで実践している、オーナー不在のサービスを引き受ける際の心得

                                            はじめに こんにちは。恋活・婚活マッチングアプリ「Pairs(ペアーズ)」 を運営する株式会社エウレカ SRE/Data Platformチームの@ogadyです。 主に、インフラやソフトウェアを運用・チューニングして、パフォーマンスや信頼性を改善しています。さらに、開発効率を支えるプラットフォームの構築や、AI・分析チーム向けのデータ基盤の運用も担当し、サービスの稼働と開発を支える重要な役割を担っています。 最近はボルダリングにハマっています。 みなさんは突然オーナー不在のサービスを引き受けるときになったら、どうするでしょうか? 誰もが使っている重要なシステムであっても、担当者が不在のまま放置されているケースは意外に多いものです。気づいた時には誰も管理していないオーナー不在のサービスの責任が急に、あなたに降りかかることがあります。 また、一人のメンバーに属人化していたサービスの担当者が、

                                              ペアーズで実践している、オーナー不在のサービスを引き受ける際の心得
                                            • SREで進化するイオン、Terraform・New Relic・PagerDutyを「三種の神器」に

                                              EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

                                                SREで進化するイオン、Terraform・New Relic・PagerDutyを「三種の神器」に
                                              • スライド/2024/09/29/TokyuRuby会議15/135日のRubyist #tqrk15

                                                2024/09/29: TokyuRuby会議15 sue445 自己紹介 sue445 Ruby歴 12年くらい Go歴: 42年(歳) ピクシブ所属 フルスタック雑用エンジニア 最近は業務でプログラムはほとんど書いてない TokyuRuby会議の登壇は6回目 【近況】貴重な基調講演 https://conference.pixiv.co.jp/2024/dev-meetup タイトルの元ネタ https://scrapbox.io/kakutani/%22362%E6%97%A5%22%E3%81%AERubyist https://x.com/kakutani/status/1184441215481040896 タイトルの元ネタ 実は、はじめは「RubyKaigi」という名前ではなかった ─ 創始者と貢献者たちが、歴史を赤裸々に話します - Findy Engineer Lab K

                                                  スライド/2024/09/29/TokyuRuby会議15/135日のRubyist #tqrk15
                                                • macOS と Homebrew で一瞬で環境をお引っ越し

                                                  Homebrew には優秀なサブコマンド brew bundle があります。 これを使うことで、現在 Homebrew を使って管理しているパッケージのリストを出力したり、 リストからまとめてパッケージをインストールしたりできます。 たとえば、複数台の macOS で同じ環境を構築したいときに便利です! この記事では、そのときの操作方法、どう使うと活かせるかに触れます。 手順 概要 brew bundle dump --global でパッケージ一覧を出力 brew bundle --global でパッケージ一覧からパッケージをまとめてインストール おわり 古い macOS でやること tap "hashicorp/tap" tap "homebrew/bundle" tap "homebrew/cask" tap "homebrew/core" tap "homebrew/servi

                                                    macOS と Homebrew で一瞬で環境をお引っ越し
                                                  • AWSエンジニアに必要な知識

                                                    はじめに 私は2024年1月からAWS設計構築のプロジェクトに入り、現在設計を進めている真っ只中なのですが、プロジェクトにアサインされてからの気づきについて書き留めてきたいと思いましたので本記事を執筆いたします。 まず、結論ファーストでお話させていただきますが、タイトルの「AWSエンジニアにとって必要な知識」についてはIT全般の知識を7割程度把握 しておくのが自分的ベストプラクティスかと思います。 ある知識に特化しているよりも、全体的に網羅されている方がことAWSにとっては必要な要素ではないかと考えています。 なぜなら、設計において任されるタスクは自分の得意としていない分野においても任されるからです。 ではその全体の知識って具体的にどんなことを知っておいたら良いの?について紹介していきます。 Linuxの知識 言わずもがな、Linuxの知識は必須になってきます。 前提として設計段階でEC2

                                                      AWSエンジニアに必要な知識
                                                    • IBM Cloud Docs

                                                      Block Storage for VPC ブート・ボリュームの容量の増加 インスタンスにアタッチされているブートボリュームについては、コンソール、CLI、API、Terraformでインスタンスのプロビジョニング中またはプロビジョニング後に、デフォルトの100GBから最大250GBまで容量を増やすことができます。 UI でブート・ボリューム容量を増やす コンソールで新規または既存のインスタンスのブートボリューム容量を増やす。 既存のインスタンスの場合は、ブロック・ストレージ・ボリュームのリストからブート・ボリュームを選択して、ブート・ボリューム容量を増やすことができます。 UI でインスタンス・プロビジョニング中にブート・ボリューム容量を増やす ストックイメージまたはカスタムイメージからインスタンスを作成する場合、ブートボリュームのサイズを増やすことができます。 例えば、ストック・イメー

                                                      • SSHトンネル使ってMySQLに接続してみた - Qiita

                                                        はじめに 先日業務でSSHトンネルとポートフォワーディングを使用する機会がありました。 今まで使ったことがなかったので、勉強と復習を兼ねて記事にしてみました。 やること 外部から直接アクセスできない環境で、SSHトンネルを使用して安全にDBにアクセスします。 例えばこのような場合です。 ローカルからWebサーバへSSH接続が可能 ローカルから直接DBにアクセスすることはできない DBにはWebサーバーからしかアクセスできない(Webサーバーが踏み台サーバーとして機能) SSHトンネルとは? SSHを使って作られる、暗号化された安全な通信路です。これを利用することで、リモートサーバーへの接続等を安全に行うことができます。 リモートのDBやサーバーに接続する際の「暗号化された専用のトンネル」を作るイメージです。 ポートフォワーディングとは? ポートフォワーディングは、SSHトンネルで使われる機

                                                          SSHトンネル使ってMySQLに接続してみた - Qiita
                                                        • コードとしてのインフラストラクチャ (IaC) とは? - Azure DevOps

                                                          コードとしてのインフラストラクチャ (IaC) は、DevOps 手法と記述モデルによるバージョン管理を使用して、ネットワーク、仮想マシン、ロード バランサー、接続トポロジなどのインフラストラクチャを定義および展開します。 同じソース コードから常に同じバイナリが生成されるのと同じように、IaC モデルはデプロイするたびに同じ環境を生成します。 IaC は重要な DevOps プラクティスであり、継続的デリバリーのコンポーネントです。 IaC を使用すると、DevOps チームは統一されたプラクティスとツールのセットを使用して連携して、アプリケーションとそのサポート インフラストラクチャを迅速かつ確実に大規模に提供できます。 一貫性を確保するために手動構成を回避する IaC は、リリース パイプラインにおける環境ドリフトの問題を解決するために進化しました。 IaC を使用しない場合、チーム

                                                            コードとしてのインフラストラクチャ (IaC) とは? - Azure DevOps
                                                          • Amazon Bedrock Knowledge bases の高度な解析オプションを試してみる | DevelopersIO

                                                            LLM を利用して PDF ファイルの中身を読み解く高度な解析オプションを試してみました。表やグラフが多いファイルを読み解くのにオススメです。 こんにちは!AWS 事業本部コンサルティング部のたかくに(@takakuni_)です。 かなり前なのですが、 Amazon Bedrock Knowledge bases に「高度な解析オプション」がリリースされました。 今回はこの機能が、どんな機能なのかを試してみたいと思います。 高度な解析オプション まず初めに高度な解析オプションは、ドキュメントからテーブルやグラフなどの非テキスト情報を解析するオプションです。従来サポートしていなかった非テキスト情報を追加情報として認識することで回答精度の向上を目指します。 ファイル形式 利用可能なファイル形式は、執筆時点で 50MB 未満の PDF 形式のみサポートしている状況です。 Each file si

                                                              Amazon Bedrock Knowledge bases の高度な解析オプションを試してみる | DevelopersIO
                                                            • Cloud SQL for MySQL8.0にリードオンリーユーザーを作成する

                                                              こんにちは、エンジニアの加藤(@tomo_k09)です。PharmaXの薬局DX事業部で主にバックエンドの開発を担当をしています。 CloudSQLで使っているMySQL8.0にリードオンリーユーザーを作成する際に少しハマりどころがあったので、この記事ではリードオンリーユーザーの作成方法についてまとめました。 CloudSQLのコンソール画面からではリードオンリーユーザーを作れない 結論、CloudSQLのMySQL8.0データベース内に読み取り権限のみを持ったユーザーを作成するには、cloudsqlsuperuserロールを持つユーザーでデータベースにログインした上で、データベース内に読み取り権限のみを持ったユーザーを作成する必要があります。 CloudSQLのドキュメントを読むと、CloudSQLでMySQL8.0を利用している場合、コンソール画面からデータベースユーザーを作ってしまう

                                                                Cloud SQL for MySQL8.0にリードオンリーユーザーを作成する
                                                              • IndexedDB を操作する  |  Articles  |  web.dev

                                                                IndexedDB を操作する コレクションでコンテンツを整理 必要に応じて、コンテンツの保存と分類を行います。 このガイドでは、Terraform ワークフローの IndexedDB API ここでは、Jake Archibald の IndexedDB の確約 このライブラリは IndexedDB API によく似ていますが、Promise を使用します。 await を使用すると構文をより簡潔にできます。これにより API が簡素化され その構造を維持します。 IndexedDB とは IndexedDB は大規模な NoSQL ストレージ システムであり、 ブラウザに表示される情報です通常の検索に加えて、 put アクションのほか、IndexedDB はトランザクションもサポートしており、 大量の構造化データの保存に使用されています IndexedDB の各データベースはオリジンに

                                                                1