並び順

ブックマーク数

期間指定

  • から
  • まで

281 - 320 件 / 386件

新着順 人気順

k8sの検索結果281 - 320 件 / 386件

  • kubesprayで構築したk8s環境にTopoLVMを使用してRook Cephのブロックストレージを構築する - Qiita

    はじめに おうちのk8s環境でクラウド環境と同様なストレージサービスを利用したい(まだまだこれから勉強なのですが、とりあえず永続ボリュームがサクッとつくれないと不便だと思っている)ので、Rook Cephの環境を構築しました。 以下の記事には大変お世話になりました。わかってしまえば簡単なことも、自分は結構時間をとってしまったので、誰かのお役に立てればと思い、記事として残します。 TopoLVMによるPVC-basedなRook/Ceph with Pod Topology Spread Constraints RancherでTopoLVMの動作環境を構築する方法 ESXi6.7 vm k8s-master (cpu x2, mem 4GB,HDD System:30GB) x 1台 k8s-node1~3(cpu x2, mem 4GB,HDD System:30GB Storage用:

      kubesprayで構築したk8s環境にTopoLVMを使用してRook Cephのブロックストレージを構築する - Qiita
    • Raspberry PIでk8sクラスタ作ってみた(物理環境編)

      自宅で気軽に色々試せるようなk8s環境が欲しいと思いGWを利用してクラスタを構築しました。 今回は様々な方の記事やtweetを参考にRaspberry PIでk8sクラスタを構築してみました。 取り急ぎ物理環境が完成したのでその記録を置いておきます。 と言ってもサイバーエージェントさんの下記記事を参考に構築したので、全体は写真で流れのみ説明して、差分のみ詳細を書いていきます。 さて、今回使用したRaspberry PIは3台。Raspberry Pi 4 Model B / 8GB × 2台、およびRaspberry Pi 3 Model B+ / 1GB × 1台です。 昨今、Raspberry Piの在庫がどの店舗もない状態で入手困難でしたが、Raspberry Pi 4はKSYのスターターセットにて入手することができました。Raspberry Pi 3は昔使っていたのが家に転がってい

        Raspberry PIでk8sクラスタ作ってみた(物理環境編)
      • k8sでcert-managerを使ってサブドメインの証明書を発行しまくる - Qiita

        モチベーション k8sならマルチテナントを1クラスタで束ねる事もお手の物なんですが、そんな時に課題になるのがSSL証明書の発行です。 グローバル証明書はそれなりにお高いです。グローバル証明書を持っていない。もしくは取得するまでもない用途の場合、無料で証明書を発行しまくる事ができたら嬉しくないですか?k8sで。 自分の場合は、無限にステージング環境を構築する必要があったので、その為の証明書発行のソリューションが必要でした。 cert-manager cert-managerは、さまざまな発行元からのTLS証明書の管理と発行を自動化するKubernetesアドオンです。(Google翻訳。。) 現在、cert-managerはLet's encryptをサポートしています。cert-managerを使うとLet's encryptからの証明書の取得および管理をk8s上で自動で行えます。もちろん

          k8sでcert-managerを使ってサブドメインの証明書を発行しまくる - Qiita
        • #CRI を #Containerd にして #kubeadm で #Kubernetes クラスタをセットアップしてみた #k8s #Docker - クリエーションライン株式会社

            #CRI を #Containerd にして #kubeadm で #Kubernetes クラスタをセットアップしてみた #k8s #Docker - クリエーションライン株式会社
          • k8sのserviceにtype: LoadBalancer指定すると複数プロトコルが指定できない – Canned Catfood Gaming

            例えば ゲーム用のDedicated Serverによくありがちな、ConnectionにUDPをQueryにTCPを使用するような、1プロセスで複数のプロトコルを併用するようなプロセスをKubernetes環境に載せようとする。 kind: Service apiVersion: v1 metadata: name: acserver4-service namespace: acserver labels: app: acserver1 spec: type: LoadBalancer ports: - name: query1 port: 9610 targetPort: 9610 protocol: TCP - name: query2 port: 8085 targetPort: 8085 protocol: TCP - name: connection port: 9610 ta

            • [k8s] 意外な原因でdnsのパフォーマンス障害になってしまった時の記録 - Qiita

              kubernetesでのdnsトラブルは結構ありがちみたいで、関連する記事も多くあります 私もそんなdnsトラブルに遭遇し、調べ倒したけど結局自力では解決できなかった時の記録です 結論だけ置いとくと、nodelocal dnscacheを使おうというものです https://kubernetes.io/ja/docs/tasks/administer-cluster/nodelocaldns/ 環境 プロバイダ: aws eks: 当時のk8sバージョンを忘れてしまったけど1.16かそれ以前か node: セルフマネージドec2(fargateではない) 経緯 1年以上前のことになるのですが、ECSで稼働していた既存サービスを移行するk8sクラスタを作成し、負荷テストを行ったところ、問題が発生しました 大まかな内容は、多量のリクエストを一定の速度で流し続けると、数分経過後に遅延・エラーが多

                [k8s] 意外な原因でdnsのパフォーマンス障害になってしまった時の記録 - Qiita
              • K0s サポートはじめました #kubernetes #k8s #k0s #mirantis #docker #コンテナ - クリエーションライン株式会社

                  K0s サポートはじめました #kubernetes #k8s #k0s #mirantis #docker #コンテナ - クリエーションライン株式会社
                • Go言語以外でもk8sオペレータが作りたい

                  要約 k8sオペレータとかカスタムコントローラ作ると行ったらGo言語という風潮 内部はHTTPなんだし所詮コントローラはただのプログラムなんだから実装は何でも良いでしょ OCamlっていう言語で実装してやんよ はい、できた そもそもk8sって 宣言的な構成管理ができて 自動デプロイや スケーリングや コンテナ運用のための オープンソースなプラットフォームですよって。 んじゃk8sのカスタムコントローラとかオペレータって何よ? k8s標準リソースとかカスタムリソースを管理するプログラムがカスタムコントローラ カスタムコントローラとCRD(カスタムリソース定義)を合わせたものの名称であり、運用自動化を図ったのがオペレータ 待って、待って。そもそも前提知識が過ぎるよ・・・ せやな。 k8sコンポーネントとは何か k8s標準リソースとは何か k8sカスタムリソースとは何か を語るか k8sコンポー

                    Go言語以外でもk8sオペレータが作りたい
                  • ののし on Twitter: "Cybozu の研修資料が素晴らしいと話題ですが、同じく Cybozu が公開している Neco プロジェクトで求めるスキル一覧が個人で k8s 勉強するときの道標になってとても参考になるのでオススメ。 同じような k8s 周り… https://t.co/PBA1MNrFuN"

                    Cybozu の研修資料が素晴らしいと話題ですが、同じく Cybozu が公開している Neco プロジェクトで求めるスキル一覧が個人で k8s 勉強するときの道標になってとても参考になるのでオススメ。 同じような k8s 周り… https://t.co/PBA1MNrFuN

                      ののし on Twitter: "Cybozu の研修資料が素晴らしいと話題ですが、同じく Cybozu が公開している Neco プロジェクトで求めるスキル一覧が個人で k8s 勉強するときの道標になってとても参考になるのでオススメ。 同じような k8s 周り… https://t.co/PBA1MNrFuN"
                    • kubeadm を使って k8s クラスタを構築する - Qiita

                      以下の記事を参考に AWS の EC2 上で kubeadm を使ってシングルスタークラスタ(コントロールプレーン用 EC2 1台、ワーカー用の EC2 1台)を構築した時のメモ(EKS を使わず、kubeadm を使ってクラスターを構築した理由は勉強のため) kubeadminでAWS EC2環境にkuenetesクラスタを作ってみた - 各ノード共通の設定 (1/2) kubeadminでAWS環境にkuenetesクラスタを作ってみた - マスターノード・ワーカーノードの構築 (2/2) なお、k8s 公式ドキュメントという意味では以下辺り Installing kubeadm Creating a cluster with kubeadm Installing kubeadm 前提 AMI は同じ「ami-0eeb679d57500a06c」を利用 インスタンスタイプも同じく「t2

                        kubeadm を使って k8s クラスタを構築する - Qiita
                      • error: exec plugin: invalid apiVersion "client.authentication.k8s.io/v1alpha1" - Qiita

                        $ aws eks --region ap-northeast-1 update-kubeconfig --name "Cluster Name" $ kubectl get svc error: exec plugin: invalid apiVersion "client.authentication.k8s.io/v1alpha1"

                          error: exec plugin: invalid apiVersion "client.authentication.k8s.io/v1alpha1" - Qiita
                        • GitHub ActionsでK8sのマニフェストを生成できるようにして開発リードタイムを改善する(前編) - Sansan Tech Blog

                          研究開発部 Architectグループ ML PlatformチームのKAZYこと新井です。ちなみに名古屋にある中部支店に所属です。 開発リードタイムを改善するためにGitHub ActionsでKubernetesのマニフェスト生成できるようにした話をします。 前後編の2つに分けて公開する予定で、今回は前編として全体像をお話します。 ▼後編 buildersbox.corp-sansan.com なお、本記事は【R&D DevOps通信】という連載記事のひとつです。 目次 目次 背景 研究開発部の研究員とArchitectグループ Kubernetes(EKS)を導入 動機 Circuitでボトルネックを解消し開発リードタイムを改善したい いきなりマニフェストを書けと言われても辛い 取り組み Github Actionsでマニフェスト生成とPR作成 社内勉強会で紹介 効果 Sansan

                            GitHub ActionsでK8sのマニフェストを生成できるようにして開発リードタイムを改善する(前編) - Sansan Tech Blog
                          • MSR(Mirantis Secure Registry) 2.9のコンテナイメージをMSR 3.0へマイグレーションしてみよう #msr #k8s #kubernetes #mirantis - クリエーションライン株式会社

                              MSR(Mirantis Secure Registry) 2.9のコンテナイメージをMSR 3.0へマイグレーションしてみよう #msr #k8s #kubernetes #mirantis - クリエーションライン株式会社
                            • 【新人🐤構築】会津のハッカソンで使われた基盤をAzure k8sを使って構築したよ! - Qiita

                              はじめての きばんこうちく 1月ももう中旬ですが・・・ 新年あけましておめでとうございます! 今回は! 新人になって初めて一人で基盤構築をした話です! ↑今回構築した基盤の構成図 はじめに ある日 会津若松で行われるハッカソンに基盤を提供して欲しいというお話を頂きました。 👤「学習もかねて基盤構築をやってみましょうか」 ということで・・・ データ連携基盤を構築することになりました~! (難しそうだけど、頑張ってやってみよう!😅) 「わたしたちのウェルビーイングのためのハッカソン」 福島県会津若松市で2018年度から毎年開催されているハッカソンです! 2022年度 開発の例 🐟治療ではない睡眠支援アプリ「スイミーん」眠れぬ時間に投影する「うとうとアクアリウム」 🐱ネコのいまの気持ちがわかる!「どっちなの?」ボタン 👬【助け合いで自分の町を自慢の町に】well-beingなマップを共

                                【新人🐤構築】会津のハッカソンで使われた基盤をAzure k8sを使って構築したよ! - Qiita
                              • k8sに入門するためにk3sから攻めてみようとしてk3os使ってみることにした記録 - 黒縁眼鏡は海を飛ぶ

                                タイトルが長い。k3osインストールしてみたのでその記録。 この記事ではk3os v0.8.0を使用しています。 ISOダウンロードしてOSインストール ISOはここからダウンロードできるので環境にあったものを選んで落とす。 ISOマウントして起動させる。 LiveCDになっているので普通にOSが起動してくるので、rancherユーザでログイン。パスワードはいらない。 そのままローカルディスクにインストールしたいので、 $ sudo k3os install 対話インストーラなので色々聞いてくるけど好みで。cloud initとやらに対応しているらしいけど、レガシーエンジニアの僕には関係なかった。 cluster組むならTokenを設定すること。 基本設定 インストールが終わったら、基本設定していく。 デフォルトだとDHCPでIP取ってくるようになってるから、まずはstaticに。 k3o

                                  k8sに入門するためにk3sから攻めてみようとしてk3os使ってみることにした記録 - 黒縁眼鏡は海を飛ぶ
                                • k0sでKata Containersを使ってみよう(QEMU編) #k0s #mirantis #kubernetes #k8s #katacontainers #qemu #microvm - クリエーションライン株式会社

                                    k0sでKata Containersを使ってみよう(QEMU編) #k0s #mirantis #kubernetes #k8s #katacontainers #qemu #microvm - クリエーションライン株式会社
                                  • KubeconformをGitLab CIに組み込んで、k8sのマニフェストがAPIの仕様に沿うか検査する

                                    はじめに k8sマニフェストを普段管理していないメンバーがマニフェストのファイルを変更する場面があります。 その際のレビューを出来るだけ自動化したくkubeconformを導入しました。 Kubeconform マニフェストがAPIの仕様に沿うか検査してくれます。 自分でスキーマを用意すればIstio、Argo Rollouts、Argo Workflowsのような外部のAPIも検査できます。 スキーマの生成 スキーマの生成はpythonのスクリプトが用意されているので、これをCRDを引数で渡し実行します。 スクリプト https://raw.githubusercontent.com/yannh/kubeconform/master/scripts/openapi2jsonschema.py IstioのCRD https://raw.githubusercontent.com/isti

                                      KubeconformをGitLab CIに組み込んで、k8sのマニフェストがAPIの仕様に沿うか検査する
                                    • 【Kubernetes構築】alphineLinuxを用いたk8s構築(web/ap/dbサーバ) - Qiita

                                      ※途中ですが、順次更新します。 【背景】 業務でAWSにEKSを導入していく中で、Kubernetesの仕様理解をする必要が出てきました。 Kubernetes内部のアーキテクチャや処理を把握するため、VMWareの仮想マシンに、minukubeを導入し、スケーリングを可能とするアーキテクチャを導入します。 minikubeを導入するメリットは、KubernetesはCPU・メモリを消費するアーキテクチャでありながら、低スペックPCでも構築が可能な点です。 通常の公式サイトのdockerイメージは、サイズが大きいものが多い上、CPU・メモリの消費量も大きいため、podのスケールアウト時にOSのリソース上限に抵触してしまうデメリットがあります。その対策として、軽量化ディストリビューションであるapline Linuxをベースとし、Apache、Tomcat、MySQLをインストールしたコンテ

                                        【Kubernetes構築】alphineLinuxを用いたk8s構築(web/ap/dbサーバ) - Qiita
                                      • minikube ではじめるローカルk8s開発環境

                                        はじめに kubernetes (k8s) のローカル環境として有名な minikube でちょっと遊んでみます。 なお、 Macでの利用を想定しています。 ドキュメント: https://minikube.sigs.k8s.io/docs/ minikube とは? minikube is local Kubernetes, focusing on making it easy to learn and develop for Kubernetes. 特徴 インストールが簡単 軽い 最新の k8s が利用可能 addons あり ノード が docker の 1 コンテナとして起動する 類似のツール Kind https://kind.sigs.k8s.io/ Docker Desktop の kubernetes アドオン https://docs.docker.com/docker-

                                          minikube ではじめるローカルk8s開発環境
                                        • k8sなら「IBMじゃなくて他のクラウド で」と言わずに見てね。 - Qiita

                                          IBM Cloud Kubernetes関連のブログ記事 2018/3 - 2019/3 IBM CloudのBlog記事の中から、この一年間のKubernetesに関する記事を分野ごとに整理しました。これらの記事の中には、正式提供開始(GA; General Available)や他企業と連携してリリースされた機能、Howtoなど様々な内容が含まれています。 この一年、IBM の Kubernetesに対する投資は莫大で、それに伴い様々な情報が発信されており、把握して理解するだけでも大変です。そこで、私自身の勉強と頭の整理も兼ねて、もとの英語の記事名は、内容が適切に判るように意訳しました。 注意事項 これは筆者が独自に作成した勉強用メモであって、私が勤める会社の見解を代表するものではありません。もちろん、誤りや誤解を含むかもしれませんので、発見したらコメントをお願いします。 「Kuber

                                            k8sなら「IBMじゃなくて他のクラウド で」と言わずに見てね。 - Qiita
                                          • trust-managerを利用してk8sクラスタ内のオレオレ証明書をちゃんと検証する - ぽよメモ

                                            背景 インストールする CAを作る trust-managerで配布する useDefaultCAs: true 実際にTLSを有効化して通信する TLSを有効化したAPIサーバをデプロイする サーバと通信する CAの更新 CAの保管場所 クラスタ外との通信の暗号化 まとめ 背景 近年、自社データセンター内の通信であっても盗聴を防げるように通信を暗号化することが求められており、うちの家のKubernetesクラスタでもなんとなく通信を暗号化しようかなという気持ちになった。一方、サービスメッシュによるmTLSのような比較的重厚な仕組みを導入するのはあまり前向きになれず、単にクラスタ内で使える証明書をcert-managerから発行して各サービスが扱うことで達成できないか考えた。 cert-managerでself-signedな証明書を作っても、その証明書のsecretにあるca.crtなど

                                              trust-managerを利用してk8sクラスタ内のオレオレ証明書をちゃんと検証する - ぽよメモ
                                            • 【kind in WSL2】k8sことはじめ【Docker Desktop 回避策】 - APC 技術ブログ

                                              こんにちは!クラウド事業部の牧瀬です。 最近 Kubernetes にデビューしました。 本記事では WSL2 で kind (Kubernetes in Docker) を設定する方法を紹介します。 目次 目次 どんなひとに読んで欲しい 背景 前提 WSL2 のセットアップ kind のセットアップ go インストール Docker インストール kubectl インストール kind インストール kind の動作確認 おわりに お知らせ どんなひとに読んで欲しい Kubernetes を無料でとりあえず試したい kind × Docker Desktop 環境から引っ越したい 有料のクラウドマネージドサービスを使いたくない 背景 新しいツールを使い始めるとき、意外とハマりがちなのが環境構築ですよね。 とくに Kubernetes は、コンポーネントが複雑で関連ツールの種類も幅広いです

                                                【kind in WSL2】k8sことはじめ【Docker Desktop 回避策】 - APC 技術ブログ
                                              • k8sからマルチコンテナ構成のCloudRunに移行できるか検証してみた | Money Forward Kessai TECH BLOG

                                                こんにちは、henzaiです。今回はSREのyoshizawaがCloudRunのマルチコンテナ構成について検証を進めてくれたネタがあったので、それを紹介したいと思います。 検証のモチベーション 弊社ではアプリケーションの実行プラットフォームとして主にGoogle Kubernetes Engine(GKE)とCloud Runを使用しています。1 主にGKEには常にリクエストを受け待つようなサーバー類をデプロイし、Cloud Runにはイベント駆動系の処理をデプロイしています。 最近ではよくある構成かなと思うのですが、一方で弊社の組織規模においてk8sの運用を続けていくのはコストが掛かりすぎるという課題感もあり、Cloud Runへの全面移行も選択肢の1つだよねというのが現状の認識です。 そこで、k8sからCloud Runに移行を進めるうえでマルチコンテナ構成によって何が可能になるか、

                                                  k8sからマルチコンテナ構成のCloudRunに移行できるか検証してみた | Money Forward Kessai TECH BLOG
                                                • Dapr + k8s + AlphaZero でオセロ

                                                  現在カミナシというSaas企業でインターンとしてお世話になっているのですが、その研修として個人開発する機会があったのでDapr使ってオセロを開発しました! 制作物 コンピュータと対戦できるオセロ 先攻/後攻、コンピュータのレベル(1〜3)まで選べる 2人での対人対戦はできない 言語等 Dapr Kubernetes gRPC React Go Python Daprとは マイクロサービスとしてアプリケーションを簡単に構築できるようにするソフトウェアです。Istioなどの(ネットワーク)サービスメッシュと同じような機能もあると思いますが、公式によるとサービスメッシュとは違うみたいです。色々便利な機能があるのですが、今回の開発ではサービス間の通信がDaprの主な役割となっております。 概要 サービスの全体像は以下の図の通りです。 Front (React) User/CP の切り替わりなどゲー

                                                    Dapr + k8s + AlphaZero でオセロ
                                                  • [Kubernetes / Istio] Sock Shopの現k8sバージョン対応とIstio対応デプロイお試し - zaki work log

                                                    microservices-demo.github.io 環境 quickstart webアクセス Istio対応 サイドカーインジェクション用namespace Gateway/VirtualService Gateway VirtualService デプロイして実行 Kialiでトラフィックを確認 環境 [zaki@cloud-dev ~]$ kc version --short Client Version: v1.18.8 Server Version: v1.18.5 みんな大好きkubeadmで作ったオンプレK8s(MetalLBによるLoadbalancer Service対応)です。 [zaki@cloud-dev ~]$ istioctl version client version: 1.6.5 control plane version: 1.6.5 data p

                                                      [Kubernetes / Istio] Sock Shopの現k8sバージョン対応とIstio対応デプロイお試し - zaki work log
                                                    • Railsでk8sのRollingUpdate時のassets解決問題を考える - 839の日記

                                                      Railsで assets:precompile したときに吐き出されるapplication.js/application.cssなどの解決方法についての検討です。 webpackerで吐き出されるファイルたちも範疇に入っています。 前提として、 assets:precomile をするとdigestが付与されたファイルたちをpublicに出力します。 public └── assets ├── application-6788f0a7ffd28bf5fe4cc7c1c16c6c7fc009a2183e45f5bb230ee409843071f3.js ├── application-6788f0a7ffd28bf5fe4cc7c1c16c6c7fc009a2183e45f5bb230ee409843071f3.js.gz ├── application-d5effe4f291031eb

                                                        Railsでk8sのRollingUpdate時のassets解決問題を考える - 839の日記
                                                      • AlgoCDとsealed-secretsを使ってk8sのシークレット管理をしてみるハンズオン - Qiita

                                                        通常、k8sでsecrets.yamlファイルを定義した場合、Secretのvalueはbase64で、エンコードされるだけで、エンコードされた文字列を知れば、簡単にデコードできてしまう問題がある。エンコード前のvalueを知られない様にするにはどうすればよいか?という問題にぶち当たる。 kubernetes Secrets管理でsealed-secretsを利用したシークレット管理についてキャッチアップした内容と手順をまとめておこうと思います。 sealed-secrets Sealed Secretsでは一言で言うと、SealedSecrets自体をDeployした時に、得られる秘密鍵(と公開鍵)のペアを使用して、シークレット情報を暗号化します。 より具体的な説明。 また、Secret関連だと、AWEのパラメータストアに格納した、Secretを使用したいといった場合ですとExterna

                                                          AlgoCDとsealed-secretsを使ってk8sのシークレット管理をしてみるハンズオン - Qiita
                                                        • k8s で ECR の認証情報 Secret を定期的に取得する - Qiita

                                                          ECR から Docker のイメージをプルするための認証情報は aws ecr get-login-password で作成できます。k8s ではこの認証情報を Secret として保存することで、イメージをECR からプルしてくれます。しかし、この方法で取得した認証情報は12時間しか有効ではないため、定期的に認証を取得する必要があります。 k8s が動いているホストの cron で実行してもいいのですが、色々な事情によって k8s の cronjob を使ってやることにしました。 今回はその方法を記事にしようと思います。 前提 k8s がすでに用意されている docker イメージをパブリックに公開できる環境がある。または、パブリックにある docker イメージを自己判断で使用できる環境である。 ECR にプライベートなイメージがすでに用意されている 流れ aws のログイン情報を

                                                            k8s で ECR の認証情報 Secret を定期的に取得する - Qiita
                                                          • バッチ処理を cron から k8s cronjob に移行する - blog.ayakumo.net

                                                            Shamshir のスタンドアローン版を k8s(minikube) の cronjob に移植した記録です。 cron でバッチを動かす時の問題点 node, ruby, python 他インタプリンタ系の言語でプログラムを作ると nodenv + npm/yarn, rbenv + bundler, pyenv + pip などのエコシステムを使って環境構築することになります。 これを cron で動かそうとすると ~/.nodenv/shims/node などエコシステム上の実行ファイルを crond に教えてあげる必要が出てきます。このため起動方法を bash -l cron.sh など(-l: Make bash act as if it had been invoked as a login shell (see INVOCATION below) 個人の動作環境をシミュレート

                                                              バッチ処理を cron から k8s cronjob に移行する - blog.ayakumo.net
                                                            • Apache Kafka on K8s(Strimzi) をコントロールする Cruise Control - 赤帽エンジニアブログ

                                                              こんにちは小杉です。 Red Hat AMQ Streams 1.5.0 がリリースされました。様々な機能が拡張されましたが、 その中でも今回は Tech Preview になった Cruise Control をご紹介します。 LinkedIn では1800以上の Kafka ブローカーが起動し、毎日1台は故障するとのことです。 (この数は 2017 年当時の数で現在のブローカー数はもっと増えているようです) また、負荷を分散するために Kafka ブローカーを追加することも行われます。 そうするとリーダーレプリカが特定のブローカーに偏るという現象が発生します。 リーダーレプリカを分散させるために手動でリバランスを実施する必要がありますが、LinkedIn によって開発された Cruise Control を使用すると、パーティションの CPU 使用率やネットワーク使用率、ディスク使用率

                                                                Apache Kafka on K8s(Strimzi) をコントロールする Cruise Control - 赤帽エンジニアブログ
                                                              • Think IT に弊社エンジニアによる技術記事「今からでも遅くない! Kubernetesを最速で学ぶための学習法とは」が掲載されました #kubernetes #k8s - クリエーションライン株式会社

                                                                  Think IT に弊社エンジニアによる技術記事「今からでも遅くない! Kubernetesを最速で学ぶための学習法とは」が掲載されました #kubernetes #k8s - クリエーションライン株式会社
                                                                • k8sな開発環境であると便利なTelepresenceをCentos7にInstallする - Qiita

                                                                  Telepresenceはk8sを利用した開発時に開発マシンにinstallしていると便利なもので、指定したk8s上のpodをproxy podに置き換えて、k8s上のpodへの通信をlocalのコンテナに、localのコンテナからの通信をproxy podからk8s上に返すことができるツールです。 Telepresence: https://www.telepresence.io/ TelepresenceをCentOS7にinstall install手順は公式のここに書いてあるのですが、CentOS7用の手順がありません。検索するとこれがでてきますが微妙に動かないのでinstall手順を以下に整理しました。 作業ディレクトリ作成 install作業中にgit cloneコマンドを実行してtelepresenceリポジトリを落としてきたりするので作業用ディレクトリを作って作業します。

                                                                    k8sな開発環境であると便利なTelepresenceをCentos7にInstallする - Qiita
                                                                  • k8sのノードをアップデートする - Qiita

                                                                    kubeadmで構築したノードのアップデートを行ってみましょう。 TL;DR ノードは1台で試しています。 結局# kubeadm upgrade applyします。それだけでした。 現在の状態 2019/10/29の時点で最新が1.16が出ています。今使っているのがkubectlが1.15.2, ノードが1.15.4なので1.16にアップグレードしてみましょう。 自身の開発環境なので1台のノードです。 murata:~ $ kubectl version -o json { "clientVersion": { "major": "1", "minor": "15", "gitVersion": "v1.15.2", "gitCommit": "f6278300bebbb750328ac16ee6dd3aa7d3549568", "gitTreeState": "clean", "bui

                                                                      k8sのノードをアップデートする - Qiita
                                                                    • JMeter on k8s (EKS)

                                                                      目的 JMeter はかなり昔からある負荷テストツールです。JMeter が動くホストを複数台構成にして、さらに高負荷をかけることも出来るようになってるのですが、そのために行うサーバー構築や設定が若干面倒です。 今回、JMeter を Docker コンテナに載せて Kubernetes に管理させる、という事をやってみます。それにより、以下のようなメリットがあるのでは無いかと考えています。 一度設定が完了してしまえば、再度構築する場合などに楽台数の増減が簡単(流行りの k8s を、実際に使いながら勉強できる) また、テスト結果は Grafana で可視化します。 概要 基本的には以下のレポジトリの内容に沿ってやるのですが、環境などがは一部異なるのと、細かい補足などを随時記載します。 kubernauts/jmeter-kubernetes: Load testing as a servi

                                                                        JMeter on k8s (EKS)
                                                                      • Yuta Kashino on Twitter: "自分の考えでは,k8sのStateful Setと世の中の分散DBのクラスタリング機能との相性がよくなると,一気に事態が動くと思いますね.実際にそういうプロジェクトが今は何本も立ち上がってますし."

                                                                        自分の考えでは,k8sのStateful Setと世の中の分散DBのクラスタリング機能との相性がよくなると,一気に事態が動くと思いますね.実際にそういうプロジェクトが今は何本も立ち上がってますし.

                                                                          Yuta Kashino on Twitter: "自分の考えでは,k8sのStateful Setと世の中の分散DBのクラスタリング機能との相性がよくなると,一気に事態が動くと思いますね.実際にそういうプロジェクトが今は何本も立ち上がってますし."
                                                                        • Raspberry Pi で containerd を使う (k8s)

                                                                          $ curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg $ echo "deb [arch=$(dpkg --print-architecture) signed-by=/etc/apt/keyrings/docker.gpg] https://download.docker.com/linux/debian $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null $ sudo mkdir -p /etc/apt/keyrings $ curl -fsSL https://do

                                                                            Raspberry Pi で containerd を使う (k8s)
                                                                          • kstatus: k8s リソースの status 判定ツール

                                                                            Flux2 では、kstatus 互換なカスタムリソースを Kustomization リソースのヘルスチェックターゲットにできます。 Custom resources that are compatible with kstatus https://toolkit.fluxcd.io/components/kustomize/kustomization/#health-assessment でもこの kstatus ってなんでしょうか? 全然知らなかったので調べてみました。 概観 kstatus は対象リソースの reconcile が完了しているかどうかを判定するための関数セットと、それに使用する標準的な status.conditions のフォーマットを提供するパッケージです。 このプロジェクトでは kstatus の定義する Condition が CRD の status 設計

                                                                              kstatus: k8s リソースの status 判定ツール
                                                                            • ここがすごいよ!CLのK8sトレーニング!#kubernetes #k8s - クリエーションライン株式会社

                                                                              こちらの記事はクリエーションラインが提供するKubernetesトレーニングを紹介するものです。 特に「工夫しているポイント」や「アピールポイント」にフォーカスしてお伝えします! 2019年ももうすぐ終わりなので、ここは開き直ってまじりっ気なしで宣伝していきます! 「Kubernetesを学びたいと思っている方」はもちろん読んでいただきたいのですが、「トレーニングを提供している方」も何か参考になればと思います。 ポイント紹介の目次 ざっくり以下のポイントを紹介していきます。興味のある所だけつまみ読みしてもらってもOKです。 講師 サポーター 学びを深める「teach back」 参加者とのコミュニケーション 集中力を維持する 〜時間管理編〜 集中力を維持する 〜もぐもぐタイム編〜 集中力を維持する 〜のびのびタイム編〜 毎日アンケートによる改善 テキストの翻訳 スペシャルゲストトーク ざっ

                                                                                ここがすごいよ!CLのK8sトレーニング!#kubernetes #k8s - クリエーションライン株式会社
                                                                              • k8s に Datadog を導入して APM のみ有効にしたい - まっしろけっけ

                                                                                はじめに www.datadoghq.com Datadog とはサーバのモニタリングなどを行ってくれるサービス。 一般的なメトリクスのモニタリング以外にも log を集約したりなど様々な機能があり、設定次第でそれぞれを有効化/無効化できます。 で今回はメトリクスのモニタリングは別でやってるので APM だけ有効にしたいんだよね〜ということをやっていきます。 Datadog 導入 まず Datadog には agent というものが存在します。 この agent が Datadog の server にメトリクスの情報を送るなどを行ってくれるものになります。 NewRelic などは gem として入れた agent が直接情報を NewRelic の server に送信しますが、Datadog は agent を別でインストールし、それに加えて gem も入れるということになります。こ

                                                                                  k8s に Datadog を導入して APM のみ有効にしたい - まっしろけっけ
                                                                                • 【k8s / istio / Docker】コマンド備忘録 - Qiita

                                                                                  kubectl create deployment nginx --image=nginx -n istio-system kubectl rollout restart deployment/ingressgateway -n istio-system kubectl rollout history deployment/ingressgateway -n istio-system kubectl rollout status deployment/ingressgateway -n istio-system kubectl set image deployment/ingressgateway <Pod名>=<イメージURL> -n istio-system

                                                                                    【k8s / istio / Docker】コマンド備忘録 - Qiita