並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 237 件 / 237件

新着順 人気順

Kubernetesの検索結果201 - 237 件 / 237件

  • Kubestronaut プログラム

    Kubestronaut プログラム は、継続的に学習に励み、Kubernetes のスキル レベルを高めてきたコミュニティ リーダーを表彰するものです。 以下のKubernetes認定資格に合格された方には、Kubestronaut の称号と限定ジャケットなどが贈られます。なお、5つの認定資格はすべて有効期限内のものである必要があります。 各バッジをクリックすると、認定の詳細確認や試験の登録ができます。

      Kubestronaut プログラム
    • Kubestronaut バンドル (KCNA + KCSA + CKA + CKAD + CKS) - Linux Foundation - トレーニング

      今すぐKubestronautになりましょう!必要な5つの認定試験をすべてまとめてお得に!試験の詳細、ドメイン、能力などについては、個別のページをご覧ください。 KCNA, KCSA, CKA, CKAD、および CKS 認定ページ。 どこから始めればよいかわかりませんか?私たちが提案した内容を確認することを検討してみてはいかがでしょうか KCNA, CKA, CKAD と CKS 学習パス。 KCNA 試験は、Kubernetes およびより広範なクラウド ネイティブ エコシステムに関するユーザーの基礎知識とスキルを証明します。KCSA 試験は、コンプライアンス目標を満たすための Kubernetes クラスターのベースライン セキュリティ構成の理解を証明します。CKA 認定は、Kubernetes インスタンスを管理する Kubernetes 管理者、クラウド管理者、およびその他の I

        Kubestronaut バンドル (KCNA + KCSA + CKA + CKAD + CKS) - Linux Foundation - トレーニング
      • kcp: Kubernetes APIs Are All You Need (by チェシャ猫) — TechFeed Experts Night#28 〜 コンテナ技術最前線

        本記事は、TechFeed Experts Night#28 〜 コンテナ技術最前線のセッション書き起こし記事になります。 イベントページのタイムテーブルから、その他のセッションに関する記事もお読み頂けますので、一度アクセスしてみてください。 本セッションの登壇者 セッション動画 このセッションでは、Kubernetesの仕組みやそもそも論みたいなところから、デモをまじえてお話ししていきます。 手元に立てたクラスタのデモをお見せします。まず、いくつかコマンドを打つとエラーになります。Kubernetesを触ったことのある方はお気付きだと思いますが、このエラーの出方は非常に奇妙です。なぜなら、PodやDeploymentが何も登録されていない場合であれば、「No resources found(リソースが見つからない)」と言ってくるはずだからです。今回のエラーメッセージは「サーバにそんなリソ

          kcp: Kubernetes APIs Are All You Need (by チェシャ猫) — TechFeed Experts Night#28 〜 コンテナ技術最前線
        • KubernetesでのApache Flinkの使い方 - Qiita

          この記事では、コンテナ管理システムの進化を紹介し、Apache FlinkをKubernetesで使用する際のベストプラクティスについて説明します。 Alibaba シニアディベロップメント・エンジニア Tang Yun (Chagan) 著、Flinkコミュニティ・ボランティア Zhang Zhuangzhuang 編著 この記事は、Alibaba シニア・ディベロップメント・エンジニアのTang Yun (Chagan)が、Apache Flinkシリーズのライブ・ブロードキャストをもとに編集したものです。この記事の主なトピックは以下の通りです。 コンテナ管理システムの進化 Flink on Kubernetesの紹介 Flink on Kubernetesの実践 hostPathの使用方法のデモ 本記事の前半では、コンテナ管理システムの進化について紹介します。第2部では、Flink

            KubernetesでのApache Flinkの使い方 - Qiita
          • Kubernetes、新バージョン「v1.30: Uwubernetes」をリリース - Podスケジューリング制御機能が安定版へ、トラフィックの地理的優先ルーティング可能に

              Kubernetes、新バージョン「v1.30: Uwubernetes」をリリース - Podスケジューリング制御機能が安定版へ、トラフィックの地理的優先ルーティング可能に
            • 第8回: Anthos Service Mesh 入門 - CADDi Tech Blog

              ※本記事は、技術評論社「Software Design」(2023年11月号)に寄稿した連載記事「Google Cloudで実践するSREプラクティス」からの転載です。発行元からの許可を得て掲載しております。 はじめに 前回はArgo CDによるKubernetesへの継続的デリバリについて紹介しました。今回は、Google Cloudが提供するAnthos Service Meshを導入して、GKEで動くアプリケーションに可観測性やセキュリティなどの機能を追加する方法を紹介します(図1)。また、本記事に関するサンプルコードについてはGitHub1を参照してください。 ▼図1 CADDiスタックにおける今回の位置付け Anthos Service Meshとは Anthos Service Mesh2(以降、ASM)とは、サービスメッシュのOSS製品であるIstio3をベースに機能を追加し

                第8回: Anthos Service Mesh 入門 - CADDi Tech Blog
              • Kubernetes ErrImagePullとImagePullBackOffの詳細 - Qiita

                本文の内容は、2022年10月5日にJavier Martínezが投稿したブログ(https://sysdig.com/blog/kubernetes-errimagepull-imagepullbackoff/)を元に日本語に翻訳・再構成した内容となっております。 コンテナを使用している時、ImagePullBackOffやErrImagePullなどのPodステータスが一般的に発生します。 ErrImagePullは、コンテナに指定されたイメージを取得またはプルできないときに発生するエラーです。 ImagePullBackOffは、イメージのプルが修正されるまでの待機猶予期間です。 今回は、その様子をご紹介します。 コンテナイメージ イメージのプル イメージのプルポリシー ErrImagePull ErrImagePullのデバッグ イメージプルエラーの監視 その他のイメージエラー

                  Kubernetes ErrImagePullとImagePullBackOffの詳細 - Qiita
                • おうちKubernetesにLonghornを入れる - PartyIX

                  Raspberry Piを買っておうちKubernetesクラスタを作る おうちKubernetesにSealedSecretsを入れる Raspberry Piの固定IP割当をルーターから指定する おうちKubernetesのcontrolplaneを3台に増やす おうちKubernetesにLonghornを入れる <- イマココ Nodeとなるマシンを一つ増やした. ChuwiのLarkBox X2023.N100のCPUがほしいなーと思っていたんだけど,N100のMiniPCでDDR5メモリで500GB程度のSSDがあるものを探したら,これに落ち着いた. メモリが12GBと,8GBでも16GBでもないのだけれど,まぁnodeに使うだけだし特に気にせず買った. これでAmazonのクーポン使って24900円.安い. www.chuwi.com で,そろそろ真面目に使えるようなクラスタ

                    おうちKubernetesにLonghornを入れる - PartyIX
                  • コンテナのリソース管理

                    このページに記載されている情報は古い可能性があります このページの更新日は英語版よりも古いため、記載されている情報が古い可能性があります。最新の情報をご覧になりたい方は英語版のページをご覧ください: Resource Management for Pods and Containers Podを指定する際に、コンテナが必要とする各リソースの量をオプションで指定することができます。 指定する最も一般的なリソースはCPUとメモリ(RAM)ですが、他にもあります。 Pod内のコンテナのリソース要求を指定すると、スケジューラはこの情報を使用して、どのNodeにPodを配置するかを決定します。コンテナに制限ソースを指定すると、kubeletはその制限を適用し、実行中のコンテナが設定した制限を超えてリソースを使用することができないようにします。また、kubeletは、少なくともそのシステムリソースのう

                      コンテナのリソース管理
                    • [Kubernetes]Jobの動作を確認する 3 - Qiita

                      なお、前回説明した「spec.backoffLimit」パラメータの値を0にしていると、一回障害が起きた時点でJobの終了条件を満たしてしまいますので、リトライさせる場合には、「spec.backoffLimit」の値を1以上にする必要があります。 Never まずはNeverの動作を確認してみます。 これは前回でも設定していましたので、同じ動作になります。 こちらのyamlファイルで動作を確認します。 apiVersion: batch/v1 kind: Job metadata: name: sample-job-back spec: completions: 5 parallelism: 1 backoffLimit: 3 template: spec: containers: - name: sample-job1 image: centos:latest command: ["s

                        [Kubernetes]Jobの動作を確認する 3 - Qiita
                      • 監査ログによるKubernetesセキュリティモニタリング 詳解

                        監査ログによるKubernetesセキュリティモニタリング 詳解:クラウドセキュリティモニタリングのベストプラクティス(4) クラウド/クラウドネイティブのログをセキュリティの観点でモニタリングするベストプラクティスを紹介する本連載。第4回は、人気が高まるKubernetes環境の監査ログによるセキュリティモニタリングについて解説する。 *本連載では、Datadogのホワイトペーパーよりベンダー中立的な部分を抜粋し、@ITの表記ルールに合わせるために改変を加えています。(編集部) Kubernetesは、コンテナ化されたアプリケーションをデプロイするためのプラットフォームとして高い人気を集めているが、環境が拡大していくとセキュリティを確保することが難しくなる。新しいコンテナが追加されるたびに、アプリケーションの攻撃対象領域、つまり不正アクセスの潜在的な起点が増えることにもなる。管理している

                          監査ログによるKubernetesセキュリティモニタリング 詳解
                        • Argo Rolloutsでプログレッシブデリバリを実現する - Sansan Tech Blog

                          こんにちは、研究開発部 Architectグループの辻田です。今回はKubernetesアプリケーション基盤にArgo Rolloutsを導入し、カナリアリリースからメトリクスの自動解析、ロールバックの自動化を実現したので紹介していきたいと思います。 Kubernetes導入の経緯や導入後の取り組みについては以下の記事で紹介しています。 buildersbox.corp-sansan.com buildersbox.corp-sansan.com なお、本記事は【R&D DevOps通信】という連載記事のひとつです。 Argo Rolloutsについて 概要 RolloutsはKubernetes上でデプロイメントの管理と自動化を行うためのツールです。CI/CDパイプラインの自動化、ネイティブなKubernetesのリソースのデプロイメント戦略、プログレッシブデリバリなどの目的に使用されま

                            Argo Rolloutsでプログレッシブデリバリを実現する - Sansan Tech Blog
                          • Kubernetesをスムーズに導入するEvil Martians特製Kubernetesツールキット(翻訳)|TechRacho by BPS株式会社

                            概要 元サイトの許諾を得て翻訳・公開いたします。 英語記事: Martian Kubernetes Kit: a smooth-sailing toolkit from our SRE team—Martian Chronicles, Evil Martians’ team blog 原文公開日: 2024/02/19 原著者: Kirill Kuznetsov(SREチーム責任者)、Travis Turner(技術記事編集者) サイト: Evil Martians -- ニューヨークやロシアを中心に拠点を構えるRuby on Rails開発会社です。良質のブログ記事を多数公開し、多くのgemのスポンサーでもあります。 日本語ブログ: 合同会社イービルマーシャンズ - Qiita 日本語タイトルは内容に即したものにしました。 私たちはKubernetesが「使いもの」になる前からKuber

                              Kubernetesをスムーズに導入するEvil Martians特製Kubernetesツールキット(翻訳)|TechRacho by BPS株式会社
                            • EKS&ECR環境にArgoCD Image Updaterをインストールして使う

                              ArgoCD Image Updaterとは ArgoCD上で管理しているリソースのイメージのみが更新された場合にもデプロイをしてくれる 通常マニフェストファイルが変更された場合、それを検知しデプロイする流れだが、イメージのみの場合は反応できないため。GithubActionsなどを使って、イメージタグを書き換えるようなものを自作する必要があった helm or kustomizeでのみ利用可能な模様 特に理由がなければ、ArgoCDが動作しているクラスタのNamespaceにデプロイしてあげるのが良い 構成 EKS version1.27 ArgoCDと同一クラスタでImage Updaterをインストール 導入手順 マニフェストインストール kubectl apply -n argocd -f https://raw.githubusercontent.com/argoproj-lab

                                EKS&ECR環境にArgoCD Image Updaterをインストールして使う
                              • Kubernetes 1.29: 変更点まとめ(What's new!)とアップグレード時の注意事項 - Qiita

                                はじめに このエントリは、Kubernetes 1.29 の CHANGELOG 及びKubernetes v1.29: Mandalaについてまとめたページへのリンクです。 詳細については各まとめページを参照してください。 変更点の詳細へのリンク Metrics Changes と SIG Instrumentation @watawuwu SIG Apps @yosshi_ SIG API Machinery @Ladicle SIG Auth @hiyosi SIG CLI @superbrothers SIG Cluster Lifecycle @yuanying SIG Storage @ysakashita SIG Network @tkusumi SIG Scheduling @ordovicia SIG Node TBD Improvements that graduate

                                  Kubernetes 1.29: 変更点まとめ(What's new!)とアップグレード時の注意事項 - Qiita
                                • Kubernetesにリモートから任意のコマンドを実行できる脆弱性、更新を - ライブドアニュース

                                  Akamai Technologiesはこのほど、「What a Cluster: Local Volumes Vulnerability in Kubernetes|Akamai」において、オープンソースのコンテナオーケストレーションシステム「Kubernetes」に脆弱性を発見したとしてその詳細を公開した。この脆弱性はすでに修正されている。 What a Cluster: Local Volumes Vulnerability in Kubernetes|Akamai ○Kubernetesの脆弱性「CVE-2023-5528」 発見された脆弱性は「CVE-2023-5528」として追跡されており、その深刻度は重要(Important)と評価されている。この脆弱性を悪用されると、Kubernetesクラスタ内のすべてのエンドポイントにおいて、SYSTEM権限を使用してリモートから任意の

                                    Kubernetesにリモートから任意のコマンドを実行できる脆弱性、更新を - ライブドアニュース
                                  • Kubernetes 1.29、数々の新機能を備えGKE Regular Channelでもリリース

                                    2月8日、Google CloudはKubernetes 1.29をGKE Regular Channelでリリースした。 新バージョンには数々の新機能が搭載され、エンジニアたちにとって注目すべき内容が含まれる。 Kubernetes 1.29がGKE Regular Channelで提供 2月8日、Google CloudはKubernetes 1.29をGKE Regular Channelでリリースした。 新バージョンには数々の新機能が搭載され、エンジニアたちにとって注目すべき内容が含まれる。詳細はKubernetes 1.29 Release Notesを参照いただきたい。 新機能: CELを使用したAdmission Policyの検証 Kubernetes 1.29では、Admission Policyの検証にCommon Expression Language(CEL)が導入

                                      Kubernetes 1.29、数々の新機能を備えGKE Regular Channelでもリリース
                                    • 30分で入門する Helm

                                      Kubernetes の利用シーンは幅広い用途に広がり、長期計画でカスタムアプリケーションを開発してデプロイする以外にも、ぱっと cluster にアプリケーションを入れて使ってみるといったことも多く見られるようになりました。 単純なアプリケーションでは kubectl apply で済むものも多いですが、じゃっかん複雑な構成のものや、また変数を使って動作を変更したいときなどでは Helm がよく使われています。 時々 Kubernetes について話しているときに、kubectl はよく使うことになったが helm はまだ慣れていないんだよねという声も聞かれるようになりました。 ここでは、そういったケースでの kubectl -> helm 間のギャップを埋めることを想定して、Helm の全体感がわかって日常的に使えるようになるまでを 30 分くらいでちゃちゃっとやってみましょう。 おさ

                                        30分で入門する Helm
                                      • Azure Front Door を使用して AKS ワークロードをセキュリティで保護する - Azure Architecture Center

                                        この記事では、Azure Front Door、Azure Web Application Firewall、Azure Private Link サービスを使用することにより、Azure Kubernetes Service (AKS) で実行されるワークロードをセキュアに公開して保護する方法について説明します。 このアーキテクチャでは、NGINX イングレス コントローラーを使って Web アプリケーションを公開します。 NGINX イングレス コントローラーは、AKS 内部ロード バランサーのフロントエンド IP 構成として、プライベート IP アドレスを使用するよう構成されます。 デプロイでは、エンド ツー エンドのトランスポート層セキュリティ (TLS) 暗号化が提供されます。 Architecture Grafana ロゴは、各社の商標です。 このマークを使用することは、保証を

                                          Azure Front Door を使用して AKS ワークロードをセキュリティで保護する - Azure Architecture Center
                                        • Kubernetes APIサーバーの監査ログの表示

                                          Container Engine for Kubernetes (OKE)とKubernetes APIサーバーの両方の操作をOracle Cloud Infrastructure Auditのログ・イベントとして表示する方法を確認します。 クラスタで発生するアクティビティの背後にあるコンテキストを理解することは、多くの場合有用です。たとえば、誰がいつ何をしたかを識別することによって、コンプライアンス・チェックを実行したり、セキュリティの異常を識別したり、エラーをトラブルシューティングします。 Oracle Cloud Infrastructure Auditサービスを使用して、次のものによって実行されたすべての操作を表示できます: Container Engine for Kubernetes。作成や削除などのアクションをクラスタで実行するたびに監査イベントを発行します。 Kuberne

                                          • Amazon EKS ワーカーノードが確保するIPアドレスを減らす

                                            はじめに EKSワーカーノードが、VPCサブネットのプライベートIPアドレスを大量に消費してしまい、プライベートIPアドレスが枯渇しまう問題が発生した。 暫定的な対策を取った記録をまとめる。 やったこと 最初に暫定対策を書いておく。 デフォルトで入っている aws-node プラグインの設定値を変更して、余分に確保されていたプライベートIPアドレスを開放した。 下記のコマンドを実行すると、aws-node が全て再起動して設定が反映される。 kubectl -n kube-system set env daemonset aws-node WARM_ENI_TARGET- kubectl -n kube-system set env daemonset aws-node MINIMUM_IP_TARGET=20 kubectl -n kube-system set env daemonse

                                              Amazon EKS ワーカーノードが確保するIPアドレスを減らす
                                            • [Kubernetes] CronJobで .spec.suspend を TRUE に指定するときに注意すべきこと - Qiita

                                              はじめに CronJobを一時的に止めておきたかったので .spec.suspend を使ってみたのですが、自分的に予想外の動きをしてしまったので、対処方法をまとめておきます。 この .spec.suspend の注意点を見逃すと、CronJobが一時的に停止した状態からJobを生成できなくなります。 対処方法までまとめましたので、是非最後まで読んでいただければと思います。 本記事は、 1.22.12-gke.300 で動作確認しました。 やりたいこと 1分ごとに Hello! と言ってくれるCronJobを作成しました。社交的なCronJobですね。 apiVersion: batch/v1 kind: CronJob metadata: name: hello spec: schedule: "* * * * *" jobTemplate: spec: template: spec:

                                                [Kubernetes] CronJobで .spec.suspend を TRUE に指定するときに注意すべきこと - Qiita
                                              • KubernetesのPDBでminAvailableに1を設定するとdrainに失敗する|サラトガ牧場

                                                テスト環境など pod を冗長化させていない場合に、drain(ドレイン)など pod の削除と作成が同時に発生する場面で通信断が発生します。 「rollout restart deployment」のような動きをしてくれるといいのですが、このあたりとは仕組みが異なるようです。 今回は minAvailable を設定した時の挙動と問題について紹介していきます。 やりたかったこと pod が 1 台しか起動していない状態で drain が実行された時、移行先の node(ノード)で新しい pod が起動した後、移行元の pod が削除されてほしい。 minAvailable に 1 を設定すれば、最低でも 1 台の pod が起動していないといけないハズなので、drain 時の挙動も変わるのではないかという想定でした。 PodDisruptionBudget(PDB)の設定 PDB の設定

                                                  KubernetesのPDBでminAvailableに1を設定するとdrainに失敗する|サラトガ牧場
                                                • Kubernetes における秘密情報の管理方法 | sreake.com | 株式会社スリーシェイク

                                                  自己紹介 竹下 2023年8月21日からインターンに参加している早稲田大学基幹理工学研究科 M1 竹下です。 SRE関連の技術と,自身が研究しているセキュリティ分野との関係性を学びたいと思い、インターンに参加しました。 中林 2023年8月21日からインターンに参加している秋田県立大学大学院 システム科学技術研究科 博士前期1年 中林です。 Kubernetes とコンテナセキュリティの部分に興味があり、インターンに参加しました。 引野 2023年8月28日からインターンに参加している新潟大学大学院 医歯学総合研究科 医科学専攻1年 引野です。 データ分析の環境構築をきっかけにコンテナ技術に興味を持ち、インターンに参加しました。 1. はじめに はじめまして、スリーシェイクの Sreake 事業部インターン生の竹下、中林、引野です。 Sreake 事業部は SRE 技術に強みを持つエンジニ

                                                    Kubernetes における秘密情報の管理方法 | sreake.com | 株式会社スリーシェイク
                                                  • EKS(Kubernetes)でマネージド型ノードグループに複数のEC2インスタンスタイプを指定する|サラトガ牧場

                                                    EKS でノードグループを構成する際、EC2 のインスタンスタイプを指定する必要があります。 managedNodeGroups: - name: nodes-1 instanceType: r5.xlarge しかし今回、特定のアベイラビリティゾーンでのみ、該当のインスタンスが起動できない事象が発生しました。 何百台もインスタンスを起動するならともかく、数台の起動で枯渇するとは・・・。 今回はマネージド型ノードグループに複数の EC2 インスタンスを指定する方法を紹介します。 クラスター構成ファイル クラスター構成ファイルから、それらしい項目がないか探してみます。 設定項目が多くて探すのがなかなか大変ですが、以下の「instanceTypes」が該当しそうです。 managedNodeGroups instanceTypes: specifies a list of instance t

                                                      EKS(Kubernetes)でマネージド型ノードグループに複数のEC2インスタンスタイプを指定する|サラトガ牧場
                                                    • 4ステップ完全ガイド!KubernetesでCephを活用した高可用性ストレージ管理術 / 開発者向けブログ・イベント | GMO Developers

                                                      前回のあらすじ 前回は Kubernetes上(k8s上)に分散ストレージの Ceph をデプロイし、ストレージの運用を自動化するストレージオペレーターで、Ceph は分散オブジェクトストレージ機能を提供する、オープンソースのストレージソフトウェアの Rook-Ceph を紹介しました。 今回は外部の Ceph を Ceph CSI 経由でどのように活用していくのかを紹介します。 Ceph CSI とは https://github.com/ceph/ceph-csi Ceph CSI(Container Storage Interface)は、コンテナオーケストレーションプラットフォーム(Kubernetesなど)と Ceph ストレージクラスター間のやり取りを可能にするプラグインスイートです。言い換えると、Ceph CSI は、コンテナ化されたアプリケーションが Ceph の分散ストレ

                                                        4ステップ完全ガイド!KubernetesでCephを活用した高可用性ストレージ管理術 / 開発者向けブログ・イベント | GMO Developers
                                                      • EKS Cluster の消費 IP 数を減らす - YasuBlog

                                                        EKS Cluster を構築すると VPC 内の IP を大量に使うので、IP 数の削減方法について整理し検証しました。 1. EKS Cluster の ENI と IP アドレスの挙動 2. デフォルト設定の Cluster を構築した際の消費 IP 数 3. 消費 IP の削減方法 4. 検証 4.1. 設定方法 4.2. WARM_ENI_TARGET 4.3. MAX_ENI 4.4. WARM_IP_TARGET 4.5. MINIMUM_IP_TARGET 4.6. どの環境変数を使用するか 5. まとめ 6. 参考 1. EKS Cluster の ENI と IP アドレスの挙動 EKS のデフォルト CNI である Amazon VPC CNI の ENI と IP アドレスの挙動は以下になります。 コントロールプレーン(Master) ENI が 2 個付く ENI

                                                          EKS Cluster の消費 IP 数を減らす - YasuBlog
                                                        • GKEのアップグレード運用の効率化 - JCB Tech Blog

                                                          本稿はJCB Advent Calendar 2023の12月25日の記事です。 PFチームの平松です。 我々の部門で運営しているJDEPの最重要構成要素である、Google Kubernetes Engine (GKE) のアップグレードに関する取り組みを紹介したいと思います。 アップグレードサイクル GKEの元となるOSSは知っての通りKubernetesですが、こちらのアップグレードサイクルはご存知でしょうか。 公式サイトに記載の通り、Kubernetesは4ヶ月ごとにマイナーバージョンがアップグレードされています。 Google CloudによるマネージドKubernetesであるGKEもこのアップグレードサイクルを基本的に踏襲しており、大体OSSの新バージョンがリリースされて1ヶ月の間にGKEの対応バージョンがRapidチャネルにリリースされ始め、その後徐々にRegularチャネ

                                                            GKEのアップグレード運用の効率化 - JCB Tech Blog
                                                          • 水平 Pod 自動スケーリングのチューニングの驚くべき経済性 | Google Cloud 公式ブログ

                                                            Gemini 1.5 モデル をお試しください。Vertex AI からアクセスできる、Google のもっとも先進的なマルチモーダル モデルです。 試す ※この投稿は米国時間 2024 年 5 月 10 日に、Google Cloud blog に投稿されたものの抄訳です。 Kubernetes HorizontalPodAutoscaler(HPA)は、環境のスケーラビリティと効率を管理するための基本的なツールであり、負荷の増加に応じてデプロイする Pod を増やすことで機能します。しかし、HPA で優れたコスト パフォーマンスを実現するには、HPA の設定、特に CPU 使用率の目標値の微細な部分を理解しなければなりません。一般的に、CPU 目標値を 50% に設定することが出発点として有効であるという認識があります。しかし、これは実際に費用の増加につながりかねません。実際、HPA

                                                              水平 Pod 自動スケーリングのチューニングの驚くべき経済性 | Google Cloud 公式ブログ
                                                            • Kubernetes セキュリティ: 一般的な問題とベストプラクティス | Snyk

                                                              Kubernetes セキュリティは、Kubernetes のデプロイメントにおいてセキュリティを確保するために従うべき行動、プロセス、原則と定義されます。これには、コンテナのセキュリティ確保、ワークロードの正しい設定、Kubernetes のネットワークセキュリティ、インフラのセキュリティなどが含まれますが、これらに限定されるものではありません。 Kubernetes のセキュリティが重要となる理由クラスターとポッドが直面する以下のようなさまざまな脅威のため、Kubernetes のセキュリティは重要です。 悪意のあるアクター コンテナ内で動作するマルウェア 破損したコンテナイメージ 侵害されたユーザーまたは不正なユーザー 適切な処置を講じていない場合、アプリケーションに侵入した悪意のあるアクターは、ホストやクラスター全体の管理の掌握を試みる可能性があります。 開発プロセス全体の中で、K

                                                                Kubernetes セキュリティ: 一般的な問題とベストプラクティス | Snyk
                                                              • k8sに入門した(その5)「Helmを使ってwordpressを動かす」

                                                                ThinkpadにインストールしたUbuntu Server 20.04上のmicrok8sを使う。 今回はhelmのversion 3を利用してそのへんのapplicationを実際に動かすことを目標にする。 まずインストール

                                                                  k8sに入門した(その5)「Helmを使ってwordpressを動かす」
                                                                • Amazon EKS ノード - Amazon EKS

                                                                  Kubernetes ノードは、コンテナ化されたアプリケーションを実行するマシンです。各ノードには、以下のコンポーネントがあります。 コンテナランタイム - コンテナの実行を担当するソフトウェア。 kubelet - コンテナが正常で、関連する Pod 内で実行されていることを確認します。 kube-proxy - Pods との通信を許可するネットワークルールを維持します。 詳細については、「Kubernetes ドキュメント」の「Nodes」(ノード) を参照してください。 Amazon EKS クラスターは、セルフマネージド型ノード、Amazon EKS マネージド型ノードグループ、AWS Fargate をさまざまに組み合わせて Pods をスケジュールできます。クラスターにデプロイされているノードの詳細については、Kubernetes リソースを表示するを参照してください。

                                                                  • Kubernetes: Martian Kubernetes Kitの舞台裏の秘密を大公開(翻訳)|TechRacho by BPS株式会社

                                                                    概要 元サイトの許諾を得て翻訳・公開いたします。 英語記事: Martian Kubernetes Kit: unboxing our toolkit's technical secrets—Martian Chronicles, Evil Martians’ team blog 原文公開日: 2024/05/07 原著者: Ilya Cherepanov(SREエンジニア)、Kirill Kuznetsov(SREチーム責任者)、Travis Turner(技術記事編集者) サイト: Evil Martians -- ニューヨークやロシアを中心に拠点を構えるRuby on Rails開発会社です。良質のブログ記事を多数公開し、多くのgemのスポンサーでもあります。 日本語ブログ: 合同会社イービルマーシャンズ - Qiita 日本語タイトルは内容に即したものにしました。 Kubernet

                                                                      Kubernetes: Martian Kubernetes Kitの舞台裏の秘密を大公開(翻訳)|TechRacho by BPS株式会社
                                                                    • etcd から始める分散合意システム入門

                                                                      この記事は Kubernetes Advent Calendar 2023 の16日目の記事です。 kubernetes のデータストア 私達が普段 manifest ファイルとして記述している Kubernetes objects [1] は kubectl など[2]を通して kube-apiserver にリクエストを送信し、そのオブジェクトは etcd に保存されます。 なぜ etcd なのか etcd は一貫性と高可用性に優れた分散KVSです。 kubernetes で主に使われるデータストアは etcd ですが、 設定で変更することも可能です。 ところで、 etcd は kubernetes のために開発されたものではありません。 CoreOS チームによって 2013 年に開発が始まり[3]、その後 kubernetes のデータストアとして採用されました。[4] etcd

                                                                        etcd から始める分散合意システム入門
                                                                      • 「AKSの自動アップグレードは怖い」は古い 日本マイクロソフト社員が語る2024年AKSアップデート事情

                                                                        日本マイクロソフト株式会社の真壁氏が、AKSアップデートの最新事情から、アップデートの代表的な失敗例、2つのアップデートの戦略サンプルについて話しました。全3回。 AKSにおけるKubernetesの自動アップグレードの状況は変わってきている 真壁徹氏:ただ今紹介していただきました、真壁です。よろしくお願いします。マイクロソフトで9年ぐらいソリューションアーキテクトをやっていますが、AKS(Azure Kubernetes Service)が得意です。お客さまの案件をたくさんお手伝いしているので、みなさんがこれまで困っていたアップデートについて、今日いろいろと話せればと思います。40分ほどお時間をいただいて進めようと思います。よろしくお願いします。 自己紹介もほどほどにして、本題に入りたいと思います。最近ポータルでAKSのクラスタを作った方がいると思うのですが、「おや?」と思いませんでした

                                                                          「AKSの自動アップグレードは怖い」は古い 日本マイクロソフト社員が語る2024年AKSアップデート事情
                                                                        • Kubernetesクラスターを「クラウド↔自宅ネットワーク」間で作る(Tailscale編) - Qiita

                                                                          はじめに 「Kubernetesクラスターを異なるプライベートネットワーク間で構築」するのが目標。 以前に試行錯誤して実現した記事を以下のように書いたのだが、手順が非常に面倒臭い課題があった... Kubernetesクラスターを「クラウド↔自宅ネットワーク」間で作る(前編) Kubernetesクラスターを「クラウド↔自宅ネットワーク」間で作る(後編) そんな中、最近Tailscaleという端末間でVPN接続してくれるサービスがあることを知り、「これを使ったらもっと簡単にできるんじゃない!?」と思って試してみた内容をまとめる。 クラスターに追加したいノードの情報 Control Plane(Master)にしたいマシン OS : Debian GNU/Linux 10 (buster) 所属するネットワーク 自宅 プライベートIP : 192.168.1.4/24 Workerにしたいマ

                                                                            Kubernetesクラスターを「クラウド↔自宅ネットワーク」間で作る(Tailscale編) - Qiita
                                                                          • Kubernetes内のアプリログをSplunkに送る

                                                                            はじめに Kubernetesはロギングもホストとは諸々違います。 ただ、一つ変わらないことはSplunkに送ればなんでもできるということです。 ということでKubernetesのコンテナログの送信方法をまとめました。 使用するエージェント Splunk OpenTelemetry Collector for Kubernetes(以下、Splunk Otel)を使います。 これはOpenTelemetry CollectorをKubernetes環境に使いやすくチューニング、機能追加したものです。 Helm Chartが用意されており様々な設定を自動化できます。可能な設定について詳細はこちら。 HEC準備 Splunk OtelではSplunkへはHECで送信するため、先に準備しておきます。 ヘッダーメニューから 設定 > データ入力 HTTPイベントコレクターの「新規追加」をクリック

                                                                              Kubernetes内のアプリログをSplunkに送る