おコンテナが自分たちのアプリやワークフロー、運用にフィットしないのはなんでなのか? Presented at JAWS DAYS 2017.
![コンテナに挫折したあなたへ / A Letter to Uncontainerized Apps - Speaker Deck](https://cdn-ak-scissors.b.st-hatena.com/image/square/0a6dc9db3d6d4210a84a11c232bc5ec674f140a5/height=288;version=1;width=512/https%3A%2F%2Ffiles.speakerdeck.com%2Fpresentations%2Fe834e63027cb43d090cbdd3c8533863b%2Fslide_0.jpg%3F7666176)
おコンテナが自分たちのアプリやワークフロー、運用にフィットしないのはなんでなのか? Presented at JAWS DAYS 2017.
皆さんこんにちは 以前にコンテナの何がいいのかを説明する資料を作りました。 「やっぱりコンテナ運用しか無いな」 「コンテナを使わざるを得ない」 「とりあえずdocker入れとけばいいや」 という声が聞こえてきそうです(幻聴) 一方で、コンテナで運用するとなると、新たなる監視体制が必要となります。 例えば、Dockerのコンテナが突然停止した場合、その状況を検知し、新しくコンテナを立ち上げる必要があります。 また、そもそもコンテナが乗っている環境をスケールする必要が出たりして、その場合は新しくスケールされた環境でもコンテナを立ち上げなければならないし、その設定をサーバに書かなければならないけど、そうなると結局コンテナが乗っているサーバがブラックボックス化したりするわけで、なんとかうまく回そうとすると、それなりに気を配ることが多くなってきます。 最近はlaradockを使用する開発者が増えてき
GKE でのk8s クラスタの管理において、Cloud Shell 経由の操作と、ローカルPCからgcloud コマンドライン ツール での操作を混ぜると、context にゴミが残るというお話。 (もしかしたらcontext の情報をうまい具合にポーリング的に再読込させる?回避策があるかもしれないので、知っている人がいれば教えていただけるとめっちゃ嬉しいです。) 対象読者 GCP ちょっとワカル k8s ちょっとワカル ※ 本当にちょっとワカルくらいの人を対象にしています。めっちゃワカル人は、間違いなどあればご指摘いただけるとうれしいです。 Cloud Shellを知らない人へ GCP には、Cloud Shellという仕組みがあり、ローカルPCからGCPをいじる環境がなくても、GCPのブラウザ画面から、GCPをいじいじできます。 さっそくExample ここに、ローカルPCからgclo
GKEの入門として、クラスタの作成から削除までの作業を実際にやったのでその際の覚書です。 GKEクラスタの作成 コンソールに沿って操作します。 試しに作るなら一番小さいf1-microでも大丈夫かと思いますが、podの作成、削除などかなり時間がかかります。。 料金が気になる方はこちらで計算できます GCPにアクセスする https://cloud.google.com/sdk/docs/authorizing?hl=ja https://cloud.google.com/kubernetes-engine/docs/quickstart?hl=ja $ gcloud auth login $ gcloud config set project sample-111111 $ gcloud config set compute/zone asia-northeast1 $ gcloud co
ども、大瀧です。 内部NLB(Network Load Balancer)でFluentd Aggregatorの負荷分散構成を組んでいたところ、タイトルの制約に気がついたので共有します。 どういう制約? 図で示すと以下になります。 NLBのターゲットグループがインスタンス単位で登録するタイプの場合、NLBはトラフィックの送信元IPアドレスをクライアントIPアドレスのままターゲットに転送します。そうするとターゲットからの戻りのトラフィックの宛先IPアドレスがターゲット自身に向き、行きと戻りで経路がちぐはぐになってしまうわけです。 こんな構成にすることあるの?と思われるかもしれませんが、ECSタスク(Dockerコンテナ)のログをNLB経由でFluentd Aggregatorに送るというケースだと十分ありえるわけです。 で、本ケースについてはドキュメントに記載があり、さらに回避方法も案内さ
一般 自分のプロジェクト一覧を表示 gcloud projects list cloud sdkのプロパティを見る gcloud config list プロジェクト切り替え gcloud config set project <your-project-id> GCE インスタンス一覧を見る gcloud compute instances list インスタンスの作成(centos-7で) gcloud compute instances create <your-instance-name> --project <your-project-name> --image-family centos-7 使用可能なimage一覧を見る gcloud compute images list インスタンスの起動・停止 gcloud compute instances start <your-i
CI部5課の山﨑です。 今回は自身で利用されるシナリオを考えて異なるアカウント間でVPCピアリング接続をしてみました。 シナリオ ある企業の経営企画室は今後の経営戦略を考えていく上で、伸び悩む営業部門にメスを入れたいと考えている。そこで営業部門の事業実態を第三者の視点から分析・業務改善を行うために営業情報が蓄積されているデータベースにアクセスしたいと考えている。当企業ではAWSクラウドを利用しており、経営企画室と営業部門でそれぞれ別のアカウントを使用している。 構成図 以下、今回構築する環境の構成図です。実際の企業でもっと複雑な環境だと思いますが、今回の構築にあたって不要な部分は省略しています。 構築 VPCピアリング接続の作成 VPCのコンソール画面から[ピアリング接続]を選択します。 VPCリクエスタはVPCピアリングの接続元、今回だとアカウントA(経営企画室)でピアリングさせたいVP
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く