『MarkeZine』が主催するマーケティング・イベント『MarkeZine Day』『MarkeZine Academy』『MarkeZine プレミアムセミナー』の 最新情報をはじめ、様々なイベント情報をまとめてご紹介します。 MarkeZine Day
[IT研修]注目キーワード Python UiPath(RPA) 最新技術動向 Microsoft Azure Docker Kubernetes 第62回 仮想デスクトップシステムのGCP移行プロジェクト(パート1) (中井悦司) 2019年7月 はじめに 今回からは、2019年に公開されたエッセイ「From Corp to Cloud: Google's Virtual Desktops」を元にして、Google社内の仮想デスクトップ移行プロジェクトを紹介します。Google社内で使用するシステムを自社のパブリッククラウドサービスであるGoogle Cloud Platform(GCP)に移行するという、少しユニークなプロジェクトになります。 移行プロジェクトの背景 Google社内では、開発作業用のワークステーションとして、開発者のデスクに設置したタワー型サーバーの他に、クラウド上の
こんにちは、虎の穴ラボの植竹です。 この記事は、虎の穴ラボ 夏のアドベントカレンダーの2日目の記事です。 今回のアドベントカレンダーも前回に引き続き、推しクラウドサービス紹介をとなります。 私の方からはGCPで長いことお世話になってきた Monitoring の推しポイントを紹介させて頂きます。 3日目は、鷺山さんによるAWSに関する記事が投稿されます。ぜひこちらもご覧ください。 はじめに クラウドサーバーを選択する際に、死活監視のシステムはかなり重要な機能となっています。 AWSでは CloudWatch ですが、GCPでは Monitoring がそれに該当します。 公式の言葉を借りると Monitoring は、 アプリケーションとインフラストラクチャのパフォーマンス、可用性、健全性を可視化できます。 https://cloud.google.com/monitoring?hl=ja
背景 GCSにファイルがuploadされたら、そのイベントをトリガーにそのファイルを処理してBigQueryにLoadする処理を作りたい 先に結論 Cloud Run + Eventarcの組み合わせが良さそうでした コンテナベースでの開発が可能 CloudFunction(1st gen)に比べるとtimeoutやmemoryなど採用できるリソースが大きい 第二世代はCloudRunにかなり寄ってきているらしいがpreviewなのでここでは取り扱わない GCSのファイルuploadをトリガーとする場合はEventarcのdirect eventによるトリガーが良さそうでした Cloud Function? Cloud Run? イベントドリブンと聞いてまず思い浮かんだのはCloud Functionでした。イベントをトリガーとして処理を動かす場合、以前はCloud Functionが一番
変化へのより柔軟な対応に向け、クラウド活用が企業の間で加速しつつある。ガートナー ジャパンのリサーチ&アドバイザリ部門でディスティングイッシュト バイス プレジデント アナリストを務める亦賀忠明氏によれば、マルチクラウドなどへの対応を模索する企業も増えているのだという。しかし、そこでの取り組むを概観すると、国内ではいまだ既存のシステム要件を踏襲した外部への「丸投げ」が大半を占める。これではせっかくクラウドを利用しつつも、その真価を発揮させることは難しいのが現実だ。亦賀氏がクラウドサービスの最新トレンドを織り込みつつ、具体的な道筋を提示する。 クラウドを原動力にモード1からモード2へ脱却 新型コロナにより経営環境の変化がさらに加速する中、企業にはキャッチアップに向けたより高い変化対応力が求められている。「Gartner IT Symposium/Xpo 2020」に登壇したガートナー ジャパ
Download the permissions in JSON format. Consume the above permissions with your own tooling. About gcp.permissions.cloud The gcp.permissions.cloud website uses a variety of information gathered within the IAM Dataset and exposes that information in a clean, easy-to-read format. gcp.permissions.cloud was built in order to provide an alternate, community-driven source of truth for Google Cloud iden
やりたいこと GCSバケットを何も設定しないで作成すると、プロジェクトのOwner、Editor、ViewerはGCSバケットのオブジェクトを参照することができてします。 さらに、Organization 横断ユーザ(例: セキュリティ監査チームやGSuites管理者)などもアクセスできてしまいます。 たとえば、機密情報を管理するバケットを作る場合など、許可した特定のユーザーのみを、特定のバケットにアクセスを許可する方法を調べました。 結論 プロジェクトレベルのIAMで storage.objects.get の権限を付与しない プロジェクトレベルのIAMとはここで設定する権限のこと https://console.cloud.google.com/iam-admin/iam GCSバケットのアクセス制御は Uniform モードで作成する バケットの詳細ページでパーミッションを設定する
こんにちは。 開発チームのワイルド担当、まんだいです。 本日はタイトル通り、先日追加されたフルマネージドかつ無料の SSL 証明書を、ロードバランサーに適用できるようになったので試してみたいと思います。 昨今 SSL 化が必須の流れになってきていて、 SSL 証明書の費用も無視できなくなってきましたので、これはかなり嬉しい方もおられるんじゃないでしょうか。 いつから GCP の ロードバランサーに無料の SSL 証明書が発行できるようになっていたのか そもそも GCP の ELB に 無料の SSL 証明書を適用できるようになっていたのをご存知だったでしょうか? 2018年10月にローンチされた機能で、私自身恥ずかしながら気づいていませんでした。 AWS に AWS Certificate Manager という機能が追加されたのは2016年1月とかなり前なので時期的な問題ではかなり差が開
ダウンロードはこちら クラウドサービスを選ぶ際、候補に挙がりやすいのは「Amazon Web Services」(AWS)と「Microsoft Azure」「Google Cloud Platform」(GCP)という主要3サービスだ。ただし用途やニーズによっては、これらのクラウドサービスを提供するAWS、Microsoft、Googleの大手クラウドベンダー3社ではなく、それ以外のベンダーが提供するクラウドサービスが適していることがある。複数ベンダーのクラウドサービスの中から、それぞれの用途に最適なクラウドサービスを組み合わせて利用する「マルチクラウド」が主流となりつつある現在、こうした“ニッチ”なクラウドサービスの利用も一考に値する。 本資料は、大手3社以外のベンダーが提供するクラウドサービスを選ぶメリットと注意点を整理し、こうしたクラウドサービスの例としてDigitalOceanと
こんにちは、みかみです。 弊社業務では、AWS をメインに使用しております。データアナリティクス事業本部に所属しているので、DWH で Redshift は非常によく使っています。 恥ずかしながら、GCP も BigQuery も触ったことがありません。 いまさらながら、BigQuery ってどんな感じ? ということで、実際にさわってみました。 やりたいこと BigQuery をさわってみたい! BigQueryとは? 言わずと知れた、Google Cloud Platform の DWH。 スケーラブルでクエリ実行も超高速! 大量データのアドホック分析などに非常に役立つようです。 BigQuery ドキュメント もともと Google さん社内でデータ分析用途に使用していたシステム、Dremel を BigQuery として一般公開したそうで、カラムナストレージとツリーアーキテクチャが高
開発用環境のプロジェクトで開発したぞー、さて次はステージング用のプロジェクトでテストだ!でもその前に、開発環境のIAM権限をコピーしないとね・・・という場面において、GCP Web Console から IAM の画面を開いて、目視で確認しながら手作業で権限内容をコピーしてませんか? 実はIAM権限は丸ごとエクスポート、インポートできてしまうのです!本記事では、この丸ごとエクスポート、インポートの方法をご紹介します。これを読めば面倒で間違いやすい手作業から今日で卒業です! ※IAMってなに?という方はまずこちらをご参照下さい。 1. 手作業で行うのは事故の元! システム周りの設定において手作業ほど間違いやすくアテにならない作業はありません。どんなに注意していても、設定する項目が多くなると、ズレ・選択間違い・疲労感などの理由によりミスを起こしてしまいます。項目数が多いIAM権限のコピーにおい
terraform で gcpのIAMを管理してみたときのメモ terraform with gcp GCP/AWS 用語対応表 AWSからterraformを触った人が多数派と思うので、用語の意味違いが結構な落とし穴です。なので整理しときます。 AWS GCP memo User Google アカウント GCPより広い世界 Group Google Group 同上 Role ServiceAccount 厳密には異なるがだいたい Policy Role つらい、嫌がらせか? PolicyAttachment IAM_member terraform上 該当なし? Policy terraform上? まずUserとGroupについて、GCPのIAMは認証機能は持たず、基本的に認可だけやります。認証は、GCPに閉じた世界ではなく、Gooleアカウント/Groupで行っています。Gmai
Access Approval Approver roles/accessapproval.approver Ability to view or act on access approval requests and view configuration accessapproval.requests.*accessapproval.settings.getresourcemanager.projects.getresourcemanager.projects.list Access Approval Config Editor roles/accessapproval.configEditor Ability to update the Access Approval configuration
GCP の CPU usage と CPU utilization 指標についてちょっとハマったので、かんたんに調べたことを整理した。 以下正確ではないが、こういうイメージで理解しているというメモ。また各例は GCE インスタンスの指標をとりあげているが、他も同じだと思う。 CPU usage (xxx/cpu/usage_time) usage_time は 1 秒あたりの cpu が利用中だった秒数。すべての vCPU について、60 秒のウィンドウで計測し集計。単位は s/s で、分子は利用中の秒数、分母は秒だと思う。 例えば 4 vCPU のインスタンスで、ある 60 秒間について、それぞれ 30 秒、0 秒、15 秒、0 秒利用中だった場合、usage_time は 0.75 s/s となる。 (30 + 0 + 15 + 0) / 60 = 0.25 (s/s) 当然数値は 1
本記事では、Google Cloud に関する認定資格についてまとめていきます。 これから取得を目指そうと思って見たもののあまり情報が出揃っていなかったので、勉強する前に簡単にまとめて見ようと思った次第です。 Googleの資格という言葉の響きに惹かれる人、これから受験を考えている人の一助になれば幸いです。 そもそもGoogle Cloudって何? Google Cloud とは、サービス名・GCP (Google Cloud Platform) としてGoogleが提供しているパブリック・クラウドサービスです。同種のサービスとしては、Microsoftが提供している Azure や、Amazonが提供している AWS などがあります。 GCP については下記の記事でまとめていますので、よろしければご覧ください。 [ GCP ] メガネと学ぶ Google Cloud Platform (
はじめにこんにちは、TIG DXユニットの真野です。2019年時点ではフューチャーに入社して9年目、主にバックエンド側の設計や開発をしています。 TIG: Technology Innovation Groupの略で、フューチャーの中でも特にIT技術に特化した部隊です。 DXユニット: TIGの中でも特にデジタルトランスフォーメーションに関わる仕事を推進していくチームです。 GCPのインスタンス(GCE, SQL, GKE)を自動で停止させるGoで書かれたツールをGitHubに公開しました。 https://github.com/future-architect/gcp-instance-scheduler このツールの実装はアルバイト社員のdonkomuraさんが主体的に開発を進めていただいました。 別の機会にdonkomuraさんにはアルバイトブログを書いてもらおうと思うので、工夫した
この記事ではGoogle Cloud Platformと、Kaggle APIを用いてKaggleの容量が大きなデータでも、ローカルよりも速い速度でダウンロードするということをやります。 具体的にはGoogle Cloud Engineで仮想マシンを立ち上げ、そのマシン上でKaggle APIを使いデータをダウンロードします。GCP上の仮想マシンはGoogleの回線を使っているので、普通に自宅のwifiなどを使うよりは断然速くダウンロードすることができます。 対象者 最近Kaggleを始めた人 GCP上でKaggleをやってみたい人 データでかすぎてうぜえって思った人 概要 GCEインスタンス立ち上げ Kaggle API導入 Kaggle データセットダウンロード 前提条件 GCPを使える Kaggleに登録している 1 GCEインスタンス立ち上げ まずはGCPのコンソール画面からGCE
この記事は新野淳一氏のブログ「Publickey」に掲載された「AWS、Azure、GCPのどの仮想マシンからでもiSCSIでアクセス可能なブロックストレージ「HPE Cloud Volumes」、HPEが国内リージョンで提供開始」(2019年10月24日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 Hewlett Packard Enterprise(HPE)は、AWSやAzure、GCPのどのクラウド内の仮想マシンからでもiSCSIで高速にアクセスできるフルマネージドなブロックストレージサービス「HPE Cloud Volumes」を、日本国内にある同社のデータセンターから提供を開始し、11月1日より販売を開始すると発表しました。 11月1日の時点でAWSとAzureに対応。GCPへの対応は近日中に行われるとのこと。 特定のクラウドに依存しないストレージを作
HashicorpからTerraformのイメージが公式でDocker Hubに公開されています。 https://hub.docker.com/r/hashicorp/terraform こちらを利用してGCPにインフラをデプロイします。その際に認証の部分もDockerの公式イメージだけで対応してみようと思います。 利用するTerraform定義 まず、ネットワーク作成するためのTerraformの定義を作成しておきます。 mkdir gcp_infra cat <<EOF > gcp_infra/main.tf variable "gcp_project" {} provider "google" { version = "~> 3.3" project = var.gcp_project } resource "google_compute_network" "network" {
米Googleは6月8日(現地時間)、クラウドサービス「Google Cloud」の技術を活用し、100兆桁の円周率を計算することに成功したと発表した。同社が円周率計算の世界記録を達成するのは2019年以来2度目。19年当時は31兆4000億桁を計算し、21年にはスイスの科学者が62兆8000億桁を計算していたが、これらを上回る結果になった。 100兆桁の計算に当たっては、Google Cloudで仮想マシンを立ち上げる「Compute Engine」を活用。128個のvCPU(仮想CPU)、864GBのメモリを搭載し、100Gpsの下り帯域幅が利用できる「n2-highmem-128」というインスタンスを立ち上げ、計算用ノードとして使った。OSには「Debian Linux 11」を採用した。 この計算用ノードに、計算結果を出力する32個の「ストレージノード」で構成されたクラスタを接続。
この記事はなに? Google Cloud認定資格のProfessional Data Engineerの勉強内容をまとめたものです。 一部、筆者の理解不足により誤った内容が書かれている可能性があります。 参考にしていただく際は必ず公式リファレンスも併せてご参照ください。 また、この内容を覚えれば資格に合格できると保証されたものではないことをご了承ください。 Google Cloud Storage(GCS) 特徴 バケットと呼ばれるコンテナに、オブジェクトと呼ばれる様々な形式のファイルを保存し使用することができる。 1オブジェクトあたり5TBのサイズ上限あり。 バケットの保存場所は3種類。 マルチリージョン(ex:Asia&US) デュアルリージョン(ex:asia-northeast1&asia-northeast2) リージョン(ex:asia-northeast1) WebUI以外
ローカルPC + Dockerで開発作業をすると、PCには負担のようで、すぐに熱くなるのが気になっていました。 そこで GCPに低スペックサーバを立てて サーバ上にソースとDockerを置いて ローカルのVSCodeからリモートコンテナ接続 してみたところ、PCが熱くならない省エネ開発環境が完成しました。 おまけに、もしPCが壊れてもリソースはサーバ側にあるので、新しいPCにVSCode等を入れ直せば環境復活するのも安心。 使い勝手はとても良かったので、所感も含めて環境の作り方を共有したいと思います。 良い点・ダメな点 良い点:とにかく省エネでPCに優しい サーバ上でDockerを立ち上げるので、PCに負荷が掛かりません。 バッテリー節約モードでもサクサク動きます。 また、下記も地味に魅力です。 GCEの無料枠スペックで動くので、ほぼお金が掛からない もしPCが壊れても、他のPCにVSCo
GCP Artifact Registry に push したら以下のエラーが発生した。 権限の設定ミスっぽいエラーだけど、それっぽい権限を付けてもエラーは解消されなかった。 denied: Permission "artifactregistry.repositories.downloadArtifacts" denied on resource "xxx" (or it may not exist) エラーの原因は Artifact Registry へのリクエストを認証するためのコマンドである "gcloud auth configure-docker" が間違っていることだった。 Container Registry では以下のように認証するが・・・ gcloud auth configure-docker https://cloud.google.com/container-re
こんにちは。最近Google CloudのDataシリーズにはまっている林です。 Google Cloud Day: Digital ’22の2週目に開催されたハンズオン祭のうち、『データエンジニア向けBigQuery + Dataplex 編』を受講してきました。 2022 年 4 月 19 - 22 日、26 - 28 日 開催決定。全ての業界で活躍する開発者やそのリーダーを対象に、Google Cloud が支援する企業の DX の実現と、新たなビジネス価値の創造について、経営的、技術的観点から深... ”Dataplex”は聞いたことがあったもののどのようなサービスか全く理解していなかったため、非常に勉強になる内容でした。 Dataplexって? 分散したデータを一元化して、 データ管理を自動化し、より強力な大規模な分析を可能するインテリジェントなデータファブリック (ハンズオン資
Bigtable BigQuery Datastore Firestore SQL Spanner Memorystore Googleが提供していたディシジョンツリー(今は無い?) Bigtable 大量データの分析や操作に適したペタバイト規模のフルマネージドNoSQLデータベースサービス。 フルマネージドとは? オートスケーリングやバージョンなど、サーバーやサービスの運用をGCP側で管理する形態。 NoSQLとは? Not only SQLの略。SQLだけでなくドキュメントベースや列指向でクエリを発行したいデータを管理する。 主な特徴 低レイテンシ スケーラブル(数十億行、数千列の規模にスケール可能) 向いてる用途 分析 時系列データ 購入履歴などのマーケティングデータ 株、為替などの金融データ IoTでセンサーからのデータ 構造化されていないデータ 向いてない用途 トランザクション管
Cloud IAP(Identity-Aware Proxy)を使うと所謂Bastion(踏み台)インスタンスを構築せずとも、GCPに安全に接続できる構成が作れます。そこにGlobal IP制限も加えられるか設定してみました。 cloud.google.com 前提 [組織作業] グローバルIP制限用のアクセスレベルを作成 IAMユーザ準備 ネットワークとVMの作成 ネットワーク作成 IAPからのアクセス用Firewallルール作成 VMの作成 IAPにてGlobal IPの制限付きのアクセス許可設定 挙動確認 前提 この機能の主要コンポーネントのAccess Context Managerを利用するためには、組織が登録済みであることが必要です。 cloud.google.com [組織作業] グローバルIP制限用のアクセスレベルを作成 Access Context Managerにてアク
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます Googleは米国時間7月9日、スケールアウト型ストレージファイルサービスを手がけるElastifileを買収する契約を締結したと発表した。買収の金銭的条件は明らかにされていないが、イスラエルのテルアビブに拠点を置くElastifileは直近の資金調達ラウンドでおよそ6500万ドル(約70億8000万円)を獲得している。 Elastifileは既に「Google Cloud Platform」(GCP)上において、大規模なエンタープライズグレードアプリケーション向けの、完全クラウドネイティブなファイルストレージサービス「Elastifile Cloud File Service」(ECFS)を提供している。企業は同社のサービスを利用する
「AWS」「Azure」「GCP」のCPUベンチマーク、どの程度の差があるのか:シングルコアはIntel、16コアはAWS Graviton2とAMDが好成績 Cockroach Labsは公式ブログで、「Amazon Web Services」「Microsoft Azure」「Google Cloud Platform」におけるCPU性能の評価結果を解説した。3つのクラウドサービスを通して、シングルコアと16コアで結果が大きく異なる。 クラウドネイティブな分散SQLデータベース「CockroachDB」を手掛けるCockroach Labsは2021年6月2日(米国時間)、公式ブログで主要クラウドサービスのCPU性能について解説した。処理性能を比較した年次レポートの最新版「2021 Cloud Report」の評価結果に基づく。 「2021 Cloud Report」は2021年1月に
Enterprise Google Cloud’s new BigQuery Omni will let developers query data in GCP, AWS and Azure At its virtual Cloud Next ’20 event, Google today announced a number of updates to its cloud portfolio, but the private alpha launch of BigQuery Omni is probably the highlight of this year’s event. Powered by Google Cloud’s Anthos hybrid-cloud platform, BigQuery Omni allows developers to use the BigQue
はじめにterraform validateやterraform planでは検知できないエラーを見つけるために、TFLintを利用してみました。TFLintを用いれば、例えばインスタンスタイプの誤りや命名規約違反を検知できます。 本記事では、インストールから利用方法までを記載しています。 TFLintとは?いわゆるTerraformのためのLinter。JavaScriptでいうと、ESLintのようなものです。構文やパラメータがルールに違反していないかをチェックしてくれるツールです。 環境やバージョン今回利用した環境です。 Windows10 tflint v0.34.0 tflint-ruleset-google v0.15.0 terraform v1.1.0 ※Terraformがなくてもtflintは動作するので、Terraformは必須ではない Google Cloud tf
Google Cloud Platform (以下 GCP )の Container-Optimized OS で Docker を使ってサイトを構築・運用するときの tips 集です。 Container-Optimized OS を使うようになってしばらく経ったので利用時の小ネタをかんたんにまとめました。 利用イメージとしては、単一のインスタンスで Docker または Docker Compose を使ってサイトを運用する場合を想定しています( Kubernetes に関する tips はここには含まれていません)。 Container-Optimized OS の利用に興味のある方は参考にしてみてください。 Container-Optimized OS とは Container-Optimized OS とはコンテナ利用に最適化された Google 社製 OS です。 GCP ユー
Mandiantの買収完了、Google CloudはGCP以外もカバーする統合セキュリティプラットフォームベンダーを目指す:Google Cloud Next ‘22 Google Cloudは2022年10月11日(米国時間)に開幕した年次イベント「Google Cloud Next ‘22」で、Mandiantの自社への本格的な取り込みを前に、既存のセキュリティ製品/サービスの統合を発表した。Mandiantがもたらすセキュリティインテリジェンスを加え、セキュリティオペレーションを変革していくという。 約54億ドルをかけたGoogleによるMandiantの買収は、2022年9月に完了した。Google Cloudは2022年10月11日(米国時間)に開幕した年次イベント「Google Cloud Next ‘22」で、Mandiantの自社への本格的な取り込みを前に、既存のセキュリ
こんにちは、菊池です。 GCP上のVPNを使って、VPN接続(Cloud VPN)を試してみました。 Cloud VPN の概要 前提条件 構成イメージは以下の通りです。VPN接続するルータ(ピアVPNゲートウェイ)はルータの内側にあり、直接パブリックIPを持たない構成となります。そのため、NATトラバーサルが必要です。インターネット接続ルータでは、IPSecVPN(+NATトラバーサル)に必要なポート(ESP:50、UDP:500、UDP:4500)はピアVPNゲートウェイにフォワードするように予め設定済みです。 また、VPNルータ(ピアVPNゲートウェイ)にはおなじみ(?)のCisco C841Mを使用しています。 オンプレミス側 オンプレミスCIDR:10.10.10.0/24 VPNゲートウェイのインターフェースIP:192.168.1.253 インターネット接続IP:222.xx
コロナ禍の影響により、リモートワークの導入が進んでいる。 その際、気になるのはセキュリティの部分。 外部から内部へ接続する場合、様々な方法があるが、最近Googleが押し出している「BeyondCorp」について、調べてみたので、まとめます。 BeyondCorpとは ・Googleが提唱する企業セキュリティに対する新しいアプローチ。 ・アクセス制御地点をネットワークの境界から個々のユーザーやデバイスに移すことで、従来のように VPN を介さなくても従業員や契約業者などのユーザーがほぼどこからでもより安全に働けるようにするもの ・Google のミッションとして、2011 年~現在まで、Google の全従業員が VPN を使用せずに、信頼できないネットワークを介して問題なく働けるようにすることを目指している。 ・VPNを利用せず、すべてのネットワークを検証する。 ・VPNを利用できない企
はじめまして!システムソリューション営業本部の川原広之と申します。 春風の心地よい季節になりましたが、皆さま、いかがお過ごしでしょうか。 4月から新生活の方が多いと思いますが、私も今年の1月から新たなスタートいうことで QESに中途入社し、新しい技術に触れながら楽しく仕事をさせていただいております。 「新しい技術」という抽象的な言葉で皆さんはどのような技術を思い浮かべられたでしょうか。 様々な技術が候補に挙がると思いますが、今回はその中でも業界で話題の(個人の主観です!) 「マイクロサービス」アーキテクチャで必ずと言っていいほど選択肢に上がってくる「コンテナ」サービスを、Azure/AWS/GCPの3大クラウドサービスそれぞれで実際に使ってみて、いくつかの観点で比較を行ってみたいと思います。 マイクロサービスについては弊社HPの中でも紹介しておりますので、是非ご覧ください! 1. コンテナ
※この投稿は米国時間 2023 年 1 月 14 日に、Google Cloud blog に投稿されたものの抄訳です。 概要Storage Transfer Service を使用すれば、Google Cloud Storage や Amazon S3、Azure Blob Storage、オンプレミス データなどのオブジェクトおよびファイル ストレージ システム間で、データを迅速かつ安全に転送できます。 このブログでは、AWS S3 から Google の Cloud Storage に、ID 連携を使用して安全にデータを転送する手順を説明します。 ID 連携では、Google Cloud と AWS の間に信頼関係を作成します。有効期間の短いアクセス トークンを使用してリソースに直接アクセスでき、長期間有効な認証情報(サービス アカウント キーなど)に関連するメンテナンスとセキュリテ
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く