並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 32 件 / 32件

新着順 人気順

cloudsqlの検索結果1 - 32 件 / 32件

  • Aurora->CloudSQLへMySQLレプリケーションはできるのか - Qiita

    ご注意 本ドキュメントは 2019/12 時点の状況での検証結果をまとめています。 コメントに頂きましたが 2020/9 に CloudSQL がレプリ元をFQDNで指定可能となった (ref) ようで、Aurora -> CloudSQL へ MySQL レプリケーションができるようになった可能性がありますのでご注意ください。 はじめに ZOZOテクノロジーズでSREチームに所属している@hkameです 普段はZOZOTOWNのオンプレ基盤を運用しております ZOZOTOWNはレガシーなシステムから徐々にパブリッククラウドへのリプレイスを実施していまして そのプロジェクトに関わりながら、日々クラウドやk8s・CICDのスキルを吸収している人です マルチクラウドでサービスを構築するための検証として Aurora->CloudSQLの2サービスのみで、MySQLのレプリケーションができるか

      Aurora->CloudSQLへMySQLレプリケーションはできるのか - Qiita
    • Datastream for BigQuery でプライベートなCloudSQLをニア・リアルタイムに分析する - Assured Tech Blog

      こんにちは!エンジニアのオリバーです。最近、個人で翻訳するときに ChatGPT に英訳、和訳させてみることが多くなってきたこの頃です。 久々に少し長めの技術記事を書かせていただきました。最近のトレンドである(と思っている)多様なデータを素早く安全に Google Cloud Platform (GCP) 上で活用するための記事になっています。記事後半には Terraform のサンプルと一緒に構成の説明がありますので興味ある方は最後まで読んでいただければと思います。 直近、GCP の BigQuery にアプリケーションのデータをニア・リアルタイムで同期できる Change Data Capture (CDC)のマネージドサービス、Datastream for BigQuery を利用する機会がありました。今回使用したデータソースは外部からのアクセスを許可していない構成だったのですが、こ

        Datastream for BigQuery でプライベートなCloudSQLをニア・リアルタイムに分析する - Assured Tech Blog
      • CloudSQLを安くするために考えたこと - ludwig125のブログ

        無料トライアル期間が終わったのでCloudSQLのマイグレーションをした話 安さを追求したわけではなく、自分なりの妥協点を探っただけ 事象 2019/5/22 CloudSQLに接続できなくなった $ gcloud sql connect myfinance --user=root ERROR: (gcloud.sql.connect) HTTPError 409: The instance or operation is not in an appropriate state to handle the request. GoogleAppEngineのログには以下が出力されていた failed to insert table: daily, err: driver: bad connection, query: 原因 Google Cloud PlatformのUIの一番上を見ると無料

        • BigQueryのCloudSQL連携クエリを試してみました。

          この記事は GMOアドマーケティング Advent Calendar 2022 24日目の記事です。 こんにちは。GMOアドマーケティングのH.Tと申します。 今回はBigQueryの連携クエリを試してみたのでご紹介いたします。 連携クエリとは BigQueryからCloud SpannerとCloud SQLデータにクエリを実行できる機能になります。(公式ドキュメント) 現状私の担当しているプロダクトでCloudSQLのデータをバッチ処理でBigQueryに同期し運用の分析に使用しています。 こちらの機能を使って同期処理を廃止できないかと思い試してみたのですが本当に簡単な設定だけでSQLが実行できました。 以下手順になります。 ※こちらの機能を試すにはGCPアカウントを開設する必要があり、BigQueryは有料サービスとなります。 料金についての詳細はBigQueryの公式ドキュメントを

            BigQueryのCloudSQL連携クエリを試してみました。
          • CloudSQLのメンテナンスに対する運用を考える - PONCOTSU

            CloudSQLを使っていると逃げきれない仕様の一つに定期メンテナンスがあります。 数ヶ月に一度、最大で90秒ほどDBインスタンスが落ちる仕様なため、プロダクション環境などでCloudSQLを利用していると、必然と90秒のメンテナンスによるサービスダウンが発生しかねません。 頑張って高可用クラスタ(冗長化)してたり、リードレプリカを作成しても、メンテナンス中はすべて停止してしまうため、サービスダウンは不可避です。 そんなわけでCloudSQLのこの仕様について頭を悩ませているインフラ運用者もきっと多いはず! ということで2年くらいCloudSQLを運用してみえた運用方法の策定基準をまとめてみます。 前提 サーキットブレイカーの導入など、アプリケーションレイヤでのDBインスタンスの停止(GCPが一番推奨している対策方法)に対する処方は抜きとする モノリスなのかマイクロサービス なのかで打ち手

              CloudSQLのメンテナンスに対する運用を考える - PONCOTSU
            • CloudSQLとお友達になる | srockstyle

              TL;DR 仕事でCloudSQLを触っているので知見を書く。 結論から言うと、GCP特有のポイントにいくつか気をつければ、あとはMySQLをチューニングするのと対して変わらない。 はじめに パラメータはインスタンスタイプを変えたところで自動で変わってくれない。 なので、ちゃんとしたいなら自分で変えてあげる必要がある。ログはデフォルトでは吐き出さないので出力する設定&ファイルに吐き出す設定にする、など。 query_cache_typeもデフォルトoff。もろもろパラメータの設定はアプリケーションにあわせて設定していかないと、インスタンスタイプあげてもお金の無駄遣いになる。 ちなみにinnodb_buffer_pool_sizeだけはCloudSQLは自動で変えてくれる。db-n1-standard-1のインスタンスはメモリ3.7Gとかだけど、2Gとかに勝手にあげてくれた。 ディスクサイズ

                CloudSQLとお友達になる | srockstyle
              • 本番データが急に欲しくなったアナタに贈る、CloudSQLのサーバレスエクスポートを試してみた | フューチャー技術ブログ

                はじめにこんにちは。TIG 市川です。GCP連載2021の2日目です。 本番運用しているデータをサクッと引っこ抜いてCSV錬金したり、DWHなどに連携していないデータを元にDataStudioでコネコネしたり・・・(負荷を気にせず)気軽にやりたいなぁ・・・というアナタに贈る記事になります。 おことわり 実際のシステムにおける本番データは正しく取り扱いましょう。運用ポリシー・セキュリティポリシーに従い、機密情報などを気軽に引っこ抜いてはいけません サーバレスエクスポートとは? https://cloud.google.com/blog/products/databases/introducing-cloud-sql-serverless-exports より引用 データベースからデータをエクスポートすることは運用上起こりえるタスクではありますが、その実、エクスポートの仕方を誤ると本番のワーク

                  本番データが急に欲しくなったアナタに贈る、CloudSQLのサーバレスエクスポートを試してみた | フューチャー技術ブログ
                • Terraformで始めるGCP【CloudRun・CloudSQL】

                  Terraformを使って、GCP上にプロジェクトを作成していきます。今回はCloudRunとCloudSQLをPrivateIP接続する構成を作成します。Private IP接続のために、VPCにはServerless VPC Access ConnectorとPrivate Service Accessを設定します。

                    Terraformで始めるGCP【CloudRun・CloudSQL】
                  • CloudSQLのインスタンスを自動停止/自動開始をスケジュールする方法

                    こんにちは。GMO NIKKO エンジニアのN.I.です。 今回は検証環境のCloudSQLをインスタンスを平日の9:30~21:00に自動起動して自動停止する仕組みを作成したのでこちらを紹介したいと思います。 前回ComputeEngineの停止を記載しましたので、続きでCloudSQLのインスタンスIDで起動、停止を実行する方法を紹介します。 アプリケーション フロー CloudSQLを自動起動/停止するためのフローは下記の様になります。 Cloud Scheduler ジョブ : スケジュールに従ってインスタンスの起動と停止情報をPub/Subに送付します。 Pub/Subメッセージ : インスタンスの起動/停止のメッセージをCloud Schedulerから受信してCloud Functionsに情報を渡します。 Cloud FunctionからCloud SQLの開始/停止指示を

                      CloudSQLのインスタンスを自動停止/自動開始をスケジュールする方法
                    • GitHub - googlearchive/cloudsql-import: Cloud SQL import tool

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        GitHub - googlearchive/cloudsql-import: Cloud SQL import tool
                      • 【GCP】Schedule QueryとCloudSQL Federationを組み合わせて超簡単にMySQLデータをBigQueryへコピーする - Qiita

                        【GCP】Schedule QueryとCloudSQL Federationを組み合わせて超簡単にMySQLデータをBigQueryへコピーするBigQuerycloudsqlGoogleCloudschedulequery はじめに ここ最近、実務でBigQuery周りを整備する機会があったため、Google Cloud Nextで発表されてからずっと気になっていたBigQuery周りの新機能・CloudSQL Federationを使ってみました。 使ってみると、Embulk・DigdagのようなETLツールを扱えない非エンジニアでも、大変簡便にBigQueryにCloudSQLのデータを蓄積できるような代物であり、少し感動したのでそちらについて紹介していきます。 対象読者 データ分析基盤を構築中、または、保守運用中のエンジニアの方々 購買データ等をBigQueryにデータを集約して

                          【GCP】Schedule QueryとCloudSQL Federationを組み合わせて超簡単にMySQLデータをBigQueryへコピーする - Qiita
                        • GCP Database Migration Serviceを使用してCloudSQL for MYSQLのバージョンアップをしてみた - Qiita

                          GCP Database Migration Serviceを使用してCloudSQL for MYSQLのバージョンアップをしてみたMySQLDatabasecloudsqlGoogleCloud はじめに この記事は、All About Group(株式会社オールアバウト) Advent Calendar 2022 16日目の記事です。 こんにちは、@deeenです。 社内でCloudSQL for MYSQLのバージョンを5.7から8.0に移行する際に「Database Migration Service」を使用したので、使用方法、注意点などまとめておきたいと思います。 Database Migration Serviceとは? サービス名の通り、GCPが提供するフルマネージドのデータベース移行サービスになります。 オンプレミス、Google Cloud、その他クラウドからCloud

                            GCP Database Migration Serviceを使用してCloudSQL for MYSQLのバージョンアップをしてみた - Qiita
                          • GCP環境間のCloudSQLデータのコピー - Qiita

                            CloudSQLのコピー test1環境のCloudSQLのデータをtest2環境のCloudSQLにコピーする方法です GCP環境間のやり取りだけで済む方法です gcloudログインされていない場合は先にログインしておいてください https://cloud.google.com/sdk/gcloud/reference/auth/login?hl=ja 1. コピー元の環境をセット コピー元の環境をセット

                              GCP環境間のCloudSQLデータのコピー - Qiita
                            • CloudRun + CloudSQLでHasuraとかPrismaとか使うときの設定のメモ

                              記事作成日: 202/06/10 前提 まずCloudRunとCloudSQLの接続はunix_socketで行われる。 prisma / hasuraはそれを指定すれば良いだけなのだが、それぞれパースがされないことなどがあり、困るケースがある。 また、今回はPostgreSQLの場合の例になる prisma Prismaの場合はちょっと注意が必要 postgres://user:password@localhost:5432/dbname?host=/cloudsql/PROJECT_ID:REGION:INSTANCE ポイントはlocalhostの部分を省略せず記述すること。省略するとパースが壊れてうまく読み込まれない。 see https://github.com/prisma/prisma-client-js/issues/437 https://www.prisma.io/do

                                CloudRun + CloudSQLでHasuraとかPrismaとか使うときの設定のメモ
                              • CloudFunctionsからCloudSQLに接続 - Qiita

                                福岡から世界中の"むずかしい"を簡単にする株式会社diffeasyCTOの西@_takeshi_24です。 この記事はアドベントカレンダー「diffeasyCTO西の24(にし)日連続投稿チャレンジ Advent Calendar 2019」の7日目の記事です。 この記事は「Nuxt.jsとFirebaseとCloudFunctionsでWebアプリ開発」シリーズとして、連載していきます。 Nuxt.jsとFirebaseなどを使ってWebアプリケーション開発にチャレンジしたい方、是非Qiitaアカウントかtwitterをフォローしていただき、ツッコミやいいね!お願いします! ここまでの記事では、Firebaseの機能について書いてきましたが、Firebaseで用意されているデータベースはNoSQLのみです。 NoSQLは非常に便利ですが、やはり複雑なデータを取得する必要があるケースはRD

                                  CloudFunctionsからCloudSQLに接続 - Qiita
                                • CloudSQL のRead Replicaだけgcloud commandでリストする - Qiita

                                  Register as a new user and use Qiita more conveniently You get articles that match your needsYou can efficiently read back useful informationYou can use dark themeWhat you can do with signing up

                                    CloudSQL のRead Replicaだけgcloud commandでリストする - Qiita
                                  • CloudSQL for PostgreSQLのベンチマークと比較して理解するAlloyDBの特徴

                                    概要 Google Cloudが提供するPostgreSQL互換データベースであるAlloyDBのパフォーマンスをトランザクション用途・分析用途の双方から検証する。 今回の検証ではAlloyDBの上限を見定めるのではなく、CloudSQLと比べてどのようなパフォーマンスになるを目的とする。 TL;DR 絞り込み条件がインデックスに限定されない場合、AlloyDBのパフォーマンスメリットが特に大きくなる。 絞り込み条件がインデックスに限定され、かつデータサイズが小さい場合、CloudSQL for PostgreSQLのコストパフォーマンスが大きくなる。 現将・将来のワークロードの両方から利用するデータベースを検討すると良い。 検証方法 同一VPC上でプロビジョニングしたAlloyDBとCloudSQL for PostgreSQLに対して、Compute Engine上のHammerDBか

                                      CloudSQL for PostgreSQLのベンチマークと比較して理解するAlloyDBの特徴
                                    • 「CloudSQL 2nd Generation性能評価」の補足 - 蒼の王座・裏口

                                      元同僚が書いた「CloudSQL 2nd Generation性能評価」でいくつか疑問形になっていたので、面白がって調べてみたので捕捉したいと思います。 場所データベースを作成時に、作成場所を選択します。 「すべて」という選択肢があります。 説明文に、「データの地域とゾーンを選択します。選択しない場合、ゾーンは「すべて」となり、Cloud SQL によって自動的に選択されます。」と解説があります。 「すべて」を選択すると、地域内にあるゾーンから1つをGoogle側のロジックで選択して、データベースインスタンスを作成してくれるようです。 メンテナンスの時間枠 メンテナンスの時間枠は、「メンテナンス時間内にインスタンスが自動的にシャットダウンし、再起動され、アップデートが適用されます。運用環境の更新は、数か月に一度ほどの割合で行われます。」と記載があります。 曜日を選択すると、時間を選択できる

                                        「CloudSQL 2nd Generation性能評価」の補足 - 蒼の王座・裏口
                                      • Datastreamを使って、CloudSQLからBigQueryへストリーミングレプリケートする

                                        #はじめに 今回は、Google CloudのDatastream for BigQueryというサービスを紹介したいと思います。 データ基盤を構築する際に、マスタデータをBigQuery上にコピーして分析を行うというケースは多いと思います。 #Datastreamとは Datastream は、サーバーレスで使いやすい変更データ キャプチャ(CDC)とレプリケーション サービスです。Datastream を使用すると異種のデータベースやアプリケーションの間でデータを確実に、かつ最小限のレイテンシとダウンタイムで同期できます。 引用元:Datastream の概要 | Google Cloud これに加えて今回紹介するDatastream for BigQueryはリレーショナル データベースから BigQuery へのシームレスなレプリケーションを実現するサーバーレスのマネージドサービス

                                        • CloudSQLからBigQueryにデータの転送方法 - Qiita

                                          キーワード GCP/Google Cloud CloudSQL BigQuery スケジュールされたクエリ terraform 本記事はterraformを使い、CloudSQLからBigQueryにデータを転送するため、BigQueryのtfファイルの作成方法を説明します。 terraformコード # -------------------------------------------------- # RESOURCES # Note the comments below # -------------------------------------------------- data "google_project" "project" { } # Enable Data Transfer Service # bigquery data transfer serviceを有効する

                                            CloudSQLからBigQueryにデータの転送方法 - Qiita
                                          • 【R&D DevOps通信】CloudSQL(MySQL)で定期的にテーブル洗い替えをするシステムを構築したら思ったよりストレージが必要だった話 - Sansan Tech Blog

                                            研究開発部 Architectグループ ML PlatformチームのKAZYこと新井です。ちなみに名古屋にある中部支店に勤務しています。 今回はCloudSQL(MySQL)で定期的にテーブル洗い替えをするシステムを構築したら思ったよりストレージが必要でしたというテーマです。 結論 まずはじめに結論からをお伝えすると、CloudSQL(MySQL)を複数ゾーン(高可用性)に配置するためにはポイントインタイムリカバリの有効化が必要です。そしてポインイトインタイムリカバリを有効化するとバイナリログが有効化されます。そのためテーブルの洗い替えのような書き込み操作を大量にすることで生まれるバイナリログがストレージ容量圧迫の原因でした。 背景 先日とあるデータソースにあるデータを定期実行でCloudSQLで構築したMySQLに同期するというシステムを構築しました。同期の方法として各テーブルのデータ

                                              【R&D DevOps通信】CloudSQL(MySQL)で定期的にテーブル洗い替えをするシステムを構築したら思ったよりストレージが必要だった話 - Sansan Tech Blog
                                            • CloudSQL へローカルから接続できない(という人のために) - 寝ても覚めてもこんぴうた

                                              GCP で MySQL や PostgreSQL のような RDB をマネージドで利用したい場合に CloudSQL を選択することが多いと思います。 ポチポチっと押せばすぐにインスタンスが出来上がるし、gcloud コマンドや、Cloud Shell を利用することで用意に接続ができるので、ふとローカルの msql コマンドだったり、 MySQL Workbench のようなツールからつなごうとすると「接続ができない」という状況になることがあると思います。 というかデフォルトの状態では接続ができません。 CloudSQL はデフォルトでは外部からの接続をすべて拒否している 見出しのとおりなのですが、CloudSQL の Connection のタブを見てもらうとわかりますが、 Authorize a network or use a Proxy to connect to your in

                                                CloudSQL へローカルから接続できない(という人のために) - 寝ても覚めてもこんぴうた
                                              • 【GCP】IAP TCP転送を使用して、ローカルマシンから直接PrivateなCloudSQLにアクセス - Qiita

                                                【GCP】IAP TCP転送を使用して、ローカルマシンから直接PrivateなCloudSQLにアクセスTCPIAPTerraformcloudsqlGoogleCloud IAP TCP転送をローカルプロトコルに割り当てて、ローカルマシンから直接PrivateなCloudSQLにアクセスする方法を書いていきます。 タイトルのアクセス方法を見つけるまでは、VMにSSH接続してからCloudSQLにアクセスしていました。 VMには外部IPアドレスを持たせていないのでIdentity Aware Proxy(以降IAP)経由でVMにアクセスしています。 この方法だとSHELLでしか操作ができないので、DBクライアントツール大好きマンな私はとても辛い日々を過ごしておりました。 そんな日々を過ごす中で、ふと思いつきました。 『IAP経由でVMにアクセスしてMySQLにアクセスできるのなら、IAPを

                                                  【GCP】IAP TCP転送を使用して、ローカルマシンから直接PrivateなCloudSQLにアクセス - Qiita
                                                • 【Go, CloudSQL】REST APIを使ってGCSに置いたCSVファイルをCloudSQLにインポートする

                                                    【Go, CloudSQL】REST APIを使ってGCSに置いたCSVファイルをCloudSQLにインポートする
                                                  • GKE Kubernetes で CloudSQL を利用する - unching-starのブログ

                                                    Cloud SQL を利用するためには、直接接続するのではなく、 Cloud SQL Proxy を利用します。 Cloud SQL Proxy は Docker image として公開されているため、こちらを使います。 Googleのドキュメント通りに設定すれば通信出来ます。 Pod 内に Proxy の Container を含める構成になっており、この構成をサイドカーパターンと呼びます。 cloud.google.com サンプル通りのやり方 ポイントは1つだけ、CloudSQL Client の役割をつけたサービスアカウントを作成し、cloudsql-instance-credentials などの名前で json を保存します。 kubectl create secret generic cloudsql-instance-credentials --from-file cred

                                                      GKE Kubernetes で CloudSQL を利用する - unching-starのブログ
                                                    • 【GCP】CloudSQLの作成〜GCEとの連携を行う備忘録 - Qiita

                                                      はじめに インフラ周りを触ることが増えてきたので学習の備忘録として残しています やり方 CloudSQL構築 任意のDBエンジンを選択する インスタンスを作成 DBを作成 Cloud SQL Admin APIを有効にする 有効にしていない場合はエラーが発生します https://console.developers.google.com/apis/api/sqladmin.googleapis.com/overview?project=640010116609 then retry. If you enabled this API recently, wait a few minutes for the action to propagate to our systems and retry. gcloud sql connect demo --user=root --quiet All

                                                        【GCP】CloudSQLの作成〜GCEとの連携を行う備忘録 - Qiita
                                                      • GCP CloudSQL PostgreSqlでスロークエリログを有効化する|スクショはつらいよ

                                                        こんにちは、ちゃりおです。 最近、GCPを触り始めました。 今回は、CloudSqlでスロークエリログの有効化について書きます。 スロークエリログの有効化 手順はかなり簡単です。 コンソールからフラグの値をかえるだけです。 1. コンソールから「CloudSQL」に移動 2. 該当インスタンスの「構成を編集」を選択 3. 「フラグ」「log_min_duration_statement」を追加して、しきい値をミリ秒単位で設定。(今回は、3秒) 4. 保存を押して、設定が適用されるのを待つ 再起動は発生しません。どのフラグを変更すると再起動が発生するかは、下記のドキュメントに記載があります。 参考 GCP公式 データベース フラグを構成する スロークエリログの確認 テスト用に「log_min_duration_statement」を0にしてどのクエリでもslowqueryになるようにしました

                                                          GCP CloudSQL PostgreSqlでスロークエリログを有効化する|スクショはつらいよ
                                                        • GCP CloudSQLにMySQL Workbenchから接続する方法について解説! | プログラミング入門ナビ by Proglus(プログラス)

                                                          この記事では、GCP CloudSQLにMySQL Workbenchから接続する方法について説明します。 この記事は、オンライン講座「はじめてのSQL ・データ分析入門 -データベースのデータをビジネスパーソンが現場で活用するためのSQL初心者向コース」のサポート記事です。 なお、アクセス時期によっては実際のサイトと記事中の画像で表示が異なる場合があります。 GCPとは ・GCPはGoogle Cloud Platformの略で、Googleが提供するクラウドコンピューティングサービスのことを指します。 ・Cloud SQLはGCPのサービスの一つで、クラウド上にMySQLサーバーを構築することができます。 ・Cloud SQLの利用には課金が発生しますが、Googleから付与される無料クジレットの適用対象です。 ・無料クレジットには有効期限(90日間。2023/3/4現在。)があります

                                                            GCP CloudSQLにMySQL Workbenchから接続する方法について解説! | プログラミング入門ナビ by Proglus(プログラス)
                                                          • (GCP) CloudFunctionsからPrivateなCloudSQLへ接続する

                                                            はじめに CloudSQLへの接続にPrivateIPを使用することには以下のようなメリットがあります。 セキュリティ面 PrivateIPを使用するとCloudSQLインスタンスはインターネットに公開されません。これにより、インターネット経由の不正アクセスのリスクが軽減する。 パフォーマンス面 VPC内のリソース間の通信が最適化されるため、レイテンシが低減するなどネットワークのパフォーマンスが向上する。 特にレイテンシに関してはPublicIP、PrivateIPそれぞれを比較した面白い記事もありました。 その他コスト面やネットワーク構成を柔軟に設定できるなど様々ありますが、VPC内に設置されたプライベートなSQLインタンスへはその外部に存在するサーバーレスコンピューティングからはどのように接続すればよいでしょうか。今回はその方法や設定方法についてCloudFunctionsを使用した例

                                                              (GCP) CloudFunctionsからPrivateなCloudSQLへ接続する
                                                            • インターナル通信でAurora MySQLからCloudSQLへレプリケーションする方法 - Qiita

                                                              概要 本記事では、AuroraMySQLからCloudSQLへインターナル通信にてレプリケーションする方法を紹介します。GCPのネットワーク周りで結構ハマりましたので参考になればと思います。 手順 1. AWSのVPC並びにGCPのネットワークの作成 まず、AWSとGCPそれぞれでVPCが無いと始まらないのでそれらの作成を行います。なお本記事ではAWS側をCloudFormationで、GCP側をTerrafromにて記述しています。 AWS Resources: EC2VPC: Type: 'AWS::EC2::VPC' Properties: CidrBlock: !Ref VPCCidrBlock EnableDnsSupport: true EnableDnsHostnames: true InstanceTenancy: 'default' Tags: - Key: 'Name'

                                                                インターナル通信でAurora MySQLからCloudSQLへレプリケーションする方法 - Qiita
                                                              • GKE とCloudSQL を組み合わせたい - toohskの日記

                                                                k8s の中にRDB コンテナをデプロイして管理するもよいと思いますが、 RDB だけフルマネージドサービスを使うパターンもあるかと思います。 アプリケーションコンテナはGKE で、RDB はCloudSQL で動かすにはどうしようと考えていたところ、Google Cloud のドキュメントの中に Running Django on Google Kubernetes Engine というまさにやりたいことを実践しているドキュメントがあったので、やってみました。 ドキュメントは↓を参照してください。 Running Django on Google Kubernetes Engine  |  Python  |  Google Cloud Google Cloud のドキュメントは結構和訳されているものがあるのですが、 今回の記事は英語だったのと、途中で少し躓くところもあったので、やったこ

                                                                  GKE とCloudSQL を組み合わせたい - toohskの日記
                                                                • [Terraform] [GCP] [CloudSQL] 高可用性構成のインスタンスを作成する(レガシーな高可用性から移行する) - Qiita

                                                                  GCP CloudSQL の高可用性について CloudSQL インスタンスでは、高可用性向けに構成することができます。 これまでは、failover replicaインスタンスを使用していました。 新しい構成では failover replica を使用しません。 以下のような terraform の設定は不要となります。 resource "google_sql_database_instance" "replica" { name = name database_version = "MYSQL" master_instance_name = google_sql_database_instance_name region = region settings { ... } replica_configuration { failover_target = true } }

                                                                    [Terraform] [GCP] [CloudSQL] 高可用性構成のインスタンスを作成する(レガシーな高可用性から移行する) - Qiita
                                                                  1