並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 210 件 / 210件

新着順 人気順

"google Cloud Platform"の検索結果201 - 210 件 / 210件

  • Google、WebブラウザでAnthosの開発環境を試せる「Anthos Developer Sandbox」無償公開

    この記事は新野淳一氏のブログ「Publickey」に掲載された「https://www.publickey1.jp/blog/20/applemacjavaazul.html」(2020年11月24日掲載)を、ITmedia NEWS編集部で一部編集し、転載したものです。 米Googleはこのほど、Kubernetesをベースとした同社のクラウドネイティブ基盤であるAnthosの開発環境をWebブラウザで試すことができる無償のサービス「Anthos Developer Sandbox」を公開しました。 Anthosは、Googleが提供するKubernetesのマネージド環境をベースにしたクラウドネイティブな基盤であり、Google CloudだけでなくオンプレミスやAWSに展開することでそれぞれのプラットフォームを抽象化し、マルチクラウド環境を実現する基盤でもあります。 参考記事:Goo

      Google、WebブラウザでAnthosの開発環境を試せる「Anthos Developer Sandbox」無償公開
    • Cloud Run Integrations で Memorystore for Redis にかんたんに接続する + α

      2023年は「Cloud Run を触って覚える」をテーマとした一人アドベントカレンダーを一人で開催しており、Cloud Run のさまざまな機能や、Cloud Run でよく使う構成などを実際の使い方と一緒にご紹介しています。 15日目は Cloud Run と Memorystore for Redis のインテグレーションについてご紹介します。 Cloud Run の概要は技術評論社さまのブログ「gihyo.jp」に寄稿した記事で解説していますのでこちらもぜひご覧ください。 Memorystore とは Memorystore はインメモリ サービスのマネージド サービスです。キャッシュ エンジンを提供するスタンダードな OSS である Redis クラスタ、Redis、Memcached と 100% 互換性のあるインメモリ サービスを構築でき、アプリケーションのキャッシュ レイヤ

        Cloud Run Integrations で Memorystore for Redis にかんたんに接続する + α
      • Node.js アプリの作成および Cloud Functions でのデプロイのヒント | Google Cloud 公式ブログ

        ※この投稿は米国時間 2020 年 12 月 24 日に、Google Cloud blog に投稿されたものの抄訳です。 Google の DPE Client Library チームは、Google Cloud クライアント ライブラリのリリース メンテナンスとサポートを担当しています。基本的には、GitHub 上の 350 を超える Google のリポジトリのオープンソース管理者として活動しています。これは大仕事です。 この業務を広範囲でこなすには、ライセンスの検証、リリースの管理、テスト合格後の pull リクエスト(PR)の統合といった各種の共通タスクの自動化が不可欠です。こうした自動化を構築するために、Node.js ベースのフレームワーク Probot を採用することにしました。これにより、GitHub API からの Webhook をリッスンするウェブ アプリケーション

          Node.js アプリの作成および Cloud Functions でのデプロイのヒント | Google Cloud 公式ブログ
        • GCEで立てたWindows Serverが外部からめっちゃログイン試されててファイアウォールとか見直した話 - Qiita

          どうして気づいた 別件で、立てたWindows Serverのログを取ろうとして、公式からStackdriverをインストールして、 「お、ログ入ってきてるやん」 なんてぬか喜びしてたんですよ。 でもよくみてみると、 なんか数秒ごとにログイン失敗してるログがめちゃくちゃ出てくる!! Account Nameが「ADMINISTRATOR」とかいろんな名前で総当たりでログインしてきているのがわかります。 え、やばくね? とりあえずファイアウォールか。 でもインスタンス立てる時に自分のIPからしかRDP(TCP:3389)できないようにしたはず。 でも確認してみると・・・ 設定されてなーい!! ファイアウォールのルールは作成したら必ずネットワークタグで適用しよう!アラサーとの約束だよ!! 他に考えるべきは・・・ 公式を確認すると、 とりあえず許可さえしなければ外部から第三者が接続できる、なんて

            GCEで立てたWindows Serverが外部からめっちゃログイン試されててファイアウォールとか見直した話 - Qiita
          • エクセルsheetを複数作成してくれるWebアプリを作ったよ(Python+Flask+GAE+Excel) - Qiita

            エクセルsheetを複数作成してくれるWebアプリを作ったよ(Python+Flask+GAE+Excel) 出来たものがこちら 僕のような初学者が下記のようなプロセスで作成したという記録を書いていきたいと思います。 きっかけ 仕事で各ソースファイルごとに調査をする必要があり、エビデンスとしてエクセルを使用。 各ファイル名のシートを作成するため、そのようなファイルを作成してくれるものが欲しかった。 Flask,GCPにも興味はあったので触ってみたかった。 まず何をしたか まずはFlaskで「Hello World」を表示ができるようにしました。 pythonファイルとhtmlファイルのみの構成でまずはSTEP1としました。 次にボタンを押したらとりあえずExcelファイルをダウンロードするように実装します。 こちらは「Flask Excel」と検索して出てきたサイトを参考にしました。 ht

              エクセルsheetを複数作成してくれるWebアプリを作ったよ(Python+Flask+GAE+Excel) - Qiita
            • GCPでJupyterLabを使ってBigQueryのデータを可視化してみた - Qiita

              注意 私はGCPもpythonもjupyterも初心者です。ぐぐりながら動かせてとても嬉しかったので投稿させていただきました。 間違いなどありましたら教えていただけるとありがたいです。 参考 [GCP] AI Platform Notebooksが正式リリースされていたので使ってみる 【BigQuery】CREATE文を使えるの知ってた?SQLでテーブル作成 BigQueryのデータを作っておく GCPのコンソールを開く サイドメニューの「BigQuery」を選択 「データセットを作成」をクリック データセットIDを「test_data_set」にして作成してみました テスト用にテーブルとデータを簡単に作成 以下のクエリをクエリエディタに貼って実行をクリック create table test_data_set.t (i INT64); insert into test_data_set.

                GCPでJupyterLabを使ってBigQueryのデータを可視化してみた - Qiita
              • トランザクションの統計情報で Cloud Spanner のパフォーマンスの可視性を高める | Google Cloud 公式ブログ

                ※この投稿は米国時間 2020 年 6 月 28 日に、Google Cloud blog に投稿されたものの抄訳です。 Cloud Spanner は Google のスケーラブルなフルマネージド リレーショナル データベース サービスです。先日リリースした、Cloud Spanner の新機能であるトランザクションの統計情報を利用すると、SQL クエリを実行してデータベースのトランザクションの統計情報を複数の期間で取得できます。これらの統計情報により、トランザクションのパフォーマンスを促進している要因をさらに詳細に把握できます。 この投稿では、トランザクションの統計情報を使用して、Cloud Spanner データベースの競合に関係するトランザクションを特定する方法についてご紹介します。 Spanner のトランザクションについてSpanner 内のトランザクションは、データベース内の

                  トランザクションの統計情報で Cloud Spanner のパフォーマンスの可視性を高める | Google Cloud 公式ブログ
                • Cloud Composer で GCS から SFTP サーバ にファイル転送してみた 〜パスワード認証編〜 | DevelopersIO

                  本記事はGCP(Google Cloud Platform) Advent Calendar 2022 11日目の記事です。 こんにちは!エノカワです。 Cloud Composer は、Apache Airflow で構築されたフルマネージドのワークフローオーケストレーションサービスです。 Apache Airflow のオープンソース プロジェクトを基に構築されており、Python プログラミング言語を使用して動作します。 今回は、Cloud Storage にあるファイルをSFTPサーバに転送するというワークロードを Cloud Composer で試してみたのでご紹介します。 下記エントリでは、同様のワークロードを Cloud Functions を使って実現した事例が紹介されていますので、こちらも是非ご参照ください! SFTPサーバをたてる ファイル転送先のSFTPサーバをたてま

                    Cloud Composer で GCS から SFTP サーバ にファイル転送してみた 〜パスワード認証編〜 | DevelopersIO
                  • GitHub Container Registry에 도커 이미지 Push 하기 - Qiita

                    TL;DR Docker Hub 정책 변경으로 오는 11월1일부터 지난 6개월간 Push나 Pull이 없던 이미지는 삭제된다고 합니다. 백업 차원에서 GitHub의 Packages에 도커 이미지를 Push 해두면 어떨까요? 준비물 GitHub 계정 GitHub's Personal Access Token GitHub Profile > Settings > Developer settings > Personal access tokens > Generate new token write:packages read:packages delete:packages repo 체크 > Generate token 실행하기 GitHub Container Registry 로그인 $ docker login ghcr.io -u <github

                      GitHub Container Registry에 도커 이미지 Push 하기 - Qiita
                    • Google Compute Engineのインスタンスに自動でGoogle Cloud Operationsのエージェントがインストールされるようにする - YAMAGUCHI::weblog

                      はじめに こんにちは、StackdriverあらためGoogle Cloud Operations担当者です。今回は担当分野の新しい機能について紹介します。本記事はGoogle Cloud LoggingやGoogle Cloud Monitoringというものがなにかをすでに理解されている方向けに書いています。 TL;DR Agent Policyを使うことで、Google Cloud LoggingとGoogle Cloud MonitoringのエージェントをGCEインスタンス作成時に自動でインストール&起動させられるようになる。 Google Cloud Logging + Google Cloud Monitoring on Google Compute Engine Google Cloud LoggingやGoogle Cloud MonitoringはGCPが提供するログと

                        Google Compute Engineのインスタンスに自動でGoogle Cloud Operationsのエージェントがインストールされるようにする - YAMAGUCHI::weblog

                      新着記事