タグ

Kubernetesに関するringo304のブックマーク (13)

  • CodeBuildでEKSへBuild&Deploy - Qiita

    はじめに AWS CodeBuildを用いてDocker build および EKSヘのデプロイを行うサンプルです。 GitHub Enterprise(GHI)へのPushをトリガーにCodeBuildをkickしてみます。 ※当初は、CodePiplelineでGHEへのPushトリガーを受けようと考えていたのですが、CodePipelineはGHEに対応していないらしく、CodeBuildのみでまかなうことにしました。 前提 Date : 2020/2 時点 EKS Kubernetes version: 1.14 ImageリポジトリはECRを利用し、かつセットアップ済み (ECRの設定は記事には記載しない) EKSはセットアップ済み(EKSの設定は記事に記載しない) GHEへアプリケーションソースコードおよびDockerfileを格納済み(すでに存在する前提) リポジトリ直下

    CodeBuildでEKSへBuild&Deploy - Qiita
  • EKSでFlux with KustomizeのGitOpsチュートリアルを試してみた | DevelopersIO

    はじめに おはようございます、もきゅりんです。 先日、EKSでWeave Fluxを使ってGitOpsしてみる によって、かなり楽にk8sでCI/CDを体験することができました。 しかし、実用の場面ではstg, prodといった複数の環境ごとに設定の調整することを考慮しなくてはなりません。 ということで、Kustomize *1 を使ったFluxでGitOpsを再びEKSでやってみました。 Using Flux with Kustomize を元に進めていきます。 このチュートリアルのシナリオとしては、staging と production と2つのk8s clusterがあり、それぞれに設定される最小のpod数がstgが1つ、prodが2つとなっていますが、この稿では、1clusterで2回デプロイすることで対応します。 環境について EKS Workshpの GETTING STAR

    EKSでFlux with KustomizeのGitOpsチュートリアルを試してみた | DevelopersIO
  • Kustomize + CodePipeline + CodeBuildでEKSに継続的デプロイしてみた | DevelopersIO

    こんにちは、かたいなかです。 Kubernetes仕事で触っていて、CodePipeline/CodeBuildとKustomizeを組み合わせての継続的デプロイを検証する機会があったので備忘録として記事にまとめてみます。 Kustomizeとは KustomizeはkubernetesYAMLファイルをパッケージングするツールです。ベースの構成をもとにSTG/PRDなどの環境ごとに変えたい設定などを上書きすることができます。Kustomizeで生成されたYAMLを、kubectl applyする形で使用します。将来的にkubectlへの統合が前提に開発されているそうです。 今回はこのKustomizeをCodePipeline/CodeBuildと組み合わせて使用し、継続的デプロイできるようにしていきます。 パイプラインの構築 今回は以下の図のようなパイプラインを組んでいきます。 前

    Kustomize + CodePipeline + CodeBuildでEKSに継続的デプロイしてみた | DevelopersIO
  • Kuberentes の水平オートスケール - Qiita

    この記事は HPA v1(v2beta1) ベースとなっており、現在(2021/12)では非推奨の方法となっております。最新の内容は https://qiita.com/shmurata/items/e6bd8c56f3e4f9a8e384 にまとめていますのでこちらを参照ください この記事ではKuberentesのオートスケール機能の一つであるHorizontal Pod Autoscalerについてまとめていきます。 Horizontal Pod Autoscaler Horizontal Pod AutoscalerはReplicationControllerまたはDeployment, ReplicaSetのPodの数を自動的にスケールします。スケールの判定に利用するメトリクスはCPUやカスタムメトリクスを利用することができます。 Horizontal Pod Autoscaler

    Kuberentes の水平オートスケール - Qiita
  • Horizontal Pod Autoscaler - Amazon EKS

    Kubernetes Horizontal Pod Autoscaler は、そのリソースの CPU 使用率に基づいて設定されたデプロイ、レプリケーションコントローラー、またはレプリカセット内の Pods の数を自動的にスケーリングします。これにより、アプリケーションは需要の増加に合わせてスケールアウトしたり、リソースが不要になったときにスケールインしたりできるため、ノードを他のアプリケーションに解放できます。ターゲットの CPU 使用率を設定すると、Horizontal Pod Autoscaler はターゲットを満たすようにアプリケーションをスケールインまたはスケールアウトします。 Horizontal Pod Autoscaler は、Kubernetes の標準 API リソースであり、動作するには、メトリクスソース (Kubernetes メトリクスサーバーなど) が Amazo

  • Kubernetesで消えないPodを強制的に削除する - Qiita

    Register as a new user and use Qiita more conveniently You get articles that match your needsYou can efficiently read back useful informationYou can use dark themeWhat you can do with signing up

    Kubernetesで消えないPodを強制的に削除する - Qiita
  • Horizontal Pod Autoscaling

    Horizontal Pod AutoscalingIn Kubernetes, a HorizontalPodAutoscaler automatically updates a workload resource (such as a Deployment or StatefulSet), with the aim of automatically scaling the workload to match demand. Horizontal scaling means that the response to increased load is to deploy more Pods. This is different from vertical scaling, which for Kubernetes would mean assigning more resources (

    Horizontal Pod Autoscaling
  • EKSにおけるAutoScalingパターン

    Amazon EKS Advent Calendar 2019の3日目です 最近EKSにおけるAutoScalingについて仕事でいろいろ試して、知見がだいぶたまったのでそれをまとめてみようと思います。 (といっても商用環境でこれを適用したというわけでなく、検証した程度なので商用環境で耐えれる内容ではないかもしれません..) k8sのAutoScalingについて最初にk8sにおけるAutoScalingについて触れておこうと思います。 k8sの世界でスケールさせる必要があるリソースはなんでしょうか? PodとNodeですね。 Podはk8sの世界に置いてデプロイできるアトミックなリソースですし PodはNodeの上に配置されるため、Pod数が増加してきたときに配置に耐えれるようにスケールできる必要があります。 これらのスケール方法ですが Podであれば、単純に新しいPodを配置したりDe

  • kubeadmで入れたkube-proxyの設定を変更する - フラミナル

    kubeadmでkubernetesをインストールするとkube-proxyはpodとして起動します。 そのため手動でインストールした時と異なり/var/lib/kube-proxy/config.confを使えないため他の方法を行う必要があります。 方法 設定変更を行う 設定の反映を行う 方法 方法としては現在動いているpodの設定を書き換え、podを削除し再作成する必要があります。 設定変更を行う kubectl -n kube-system edit cm kube-proxy # Please edit the object below. Lines beginning with a '#' will be ignored, # and an empty file will abort the edit. If an error occurs while saving this f

    kubeadmで入れたkube-proxyの設定を変更する - フラミナル
  • Kubernetes ログを読んで理解する kube-proxy の仕組み

    kube-proxy は各ノードで動作するネットワークプロキシ。Service の仕組みの一部(ClusterIP や NodePort など)を実現し、クラスタ内部または外部から Pod にアクセスできるように制御する。 参考 Kubernetes Components 参考 Kubernetes Service Service は 特定ラベルの Pod に対する仮想的なエンドポイント。Kubernetes では Pod がどのノードに配置されるかが不定(オートヒーリングやオートスケールのため)のため、サービスディスカバリの仕組みが必要になる。 Service のサービスディスカバリ機能は DNS ではなくてプロキシ方式になっている。Service に割り当てられた ClusterIP にアクセスすると、各 Pod にアクセスが分散される。そのため、Pod の IP アドレスを直接意識す

    Kubernetes ログを読んで理解する kube-proxy の仕組み
  • コンテナおよびPodへのCPUリソースの割り当て

    このページでは、CPUの request と limit をコンテナに割り当てる方法について示します。コンテナは設定された制限を超えてCPUを使用することはできません。システムにCPUの空き時間がある場合、コンテナには要求されたCPUを割り当てられます。 始める前に Kubernetesクラスターが必要、かつそのクラスターと通信するためにkubectlコマンドラインツールが設定されている必要があります。 このチュートリアルは、コントロールプレーンのホストとして動作していない少なくとも2つのノードを持つクラスターで実行することをおすすめします。 まだクラスターがない場合、minikubeを使って作成するか、 以下のいずれかのKubernetesプレイグラウンドも使用できます: KillercodaPlay with Kubernetesバージョンを確認するには次のコマンドを実行してください:

    コンテナおよびPodへのCPUリソースの割り当て
  • Kubernetes 1.12にmetrics-serverをインストール - Qiita

    前回、Kubernetes 1.12環境にIngress Controllerをインストールして、サンプルアプリケーションもデプロイしてみたが、気になるのは現在のリソース使用状況。 kubeadmから素でKubernetesインストールするとHeapsterもmetrics-serverも導入されないのでkubectl topコマンドは何も状況を返してくれない。 # kubectl top node Error from server (NotFound): the server could not find the requested resource (get services http:heapster:) root@m16:~# kubectl top pod Error from server (NotFound): the server could not find the r

    Kubernetes 1.12にmetrics-serverをインストール - Qiita
  • Kubernetesクラスタでmetrics-serverを導入してkubectl topやHPA(Horizontal Pod Autoscaler)を有効にする - Qiita

    Kubernetesクラスタでmetrics-serverを導入してkubectl topやHPA(Horizontal Pod Autoscaler)を有効にするkubernetesHorizontalPodAutoscaler kubeadmなどを使って自前で構築したkubernetesを使って色々な機能を試していると、初期状態では kubectl top [node/pod]で結果が得られなかったり、 kubectl autoscaleでオートスケーリングさせようにもPodのCPU使用率などをウォッチできずにスケールされないかと思います。 HPAの公式ドキュメントをみているとkubernetes v1.11からはmetrics serverを動かしてやればいい(それ以前はHeapsterだが現在は非推奨)という情報があり、 試しに動かしてみたけどやっぱり取れない…ということがありまし

    Kubernetesクラスタでmetrics-serverを導入してkubectl topやHPA(Horizontal Pod Autoscaler)を有効にする - Qiita
  • 1