Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
[centos@minikube ~]$ sudo yum list docker-ce --showduplicates | sort -r * updates: ftp.iij.ad.jp Loading mirror speeds from cached hostfile Loaded plugins: fastestmirror * extras: ftp.iij.ad.jp docker-ce.x86_64 18.06.1.ce-3.el7 docker-ce-stable docker-ce.x86_64 18.06.0.ce-3.el7 docker-ce-stable docker-ce.x86_64 18.03.1.ce-1.el7.centos docker-ce-stable docker-ce.x86_64 18.03.0.ce-1.el7.centos docke
Kubernetes v1.12.0 で新たな Kubernetes を拡張するための機能が追加されました! このエントリでは新たに追加された Pod Ready++(PodReadinessGate) についてまとめます。 Pod Ready++ とは Pod Ready++ は Pod の Readinessの条件に拡張を加える事ができる機能です。v1.11 で密かに Alpha として追加され、v1.12 で Beta に昇格しました。これにより独自の Readiness 条件を追加することができます。 目的 Kubernetes は Pod Readiness が true になるとトラフィックを受け付ける準備をします。Pod Readiness は kubelet の Readiness Probe によって判定されます。Pod Readiness が true になるとその P
はじめに 今回の検証では、Kubernetes上でML環境を提供するKubeflowを試します。Kubeflowは、シングルノードのKubernetesの実験環境であるminikubeでも実行できます。しかし、大規模な計算を行うMLにおいて、シングルノードの計算リソースでは実用に耐えられません。そのため、マルチノードのKubernetesクラスタ上にKubeflowをセットアップしたい人も多いかと思います。 しかし、セットアップに際し、ひとつ問題があります。それが永続ストレージです。Kubeflowをセットアップするためには、データを保存するための永続ストレージが必要となります。minikubeでは、minikubeが提供するprovisionerによって、minikubeのVMを利用し永続ストレージを提供しています。GKEなどのパブリッククラウドのサービスを使っている場合も、比較的容易に
グローバル展開するクラウド・ベンダーを対象にKubernetesサービスのスペックを比較しました。追加・修正ありましたら随時更新しますのでコメント欄にてお知らせください。
はじめに Kubernetes公式ドキュメントのExample: Deploying Cassandra with Stateful Setsを実行しました。 NFSストレージはPersistentVolume(PV)で確保しているため、StorageClass(SC)を利用する例がそのままでは実行が難しかったのでPVを利用するように書き換えたので要点をまとめました。 このPersistentVolumeは過去にまとめたKubernetesでNFSを利用してPersistentStorageを準備するに従って準備しています。 NFSを前提としてSCを確保する方法をまとめている方もいましたが、そちらは試していません。 環境について Kubernetesクラスターは、Kubesprayを利用して、Xeon E3を積んだサーバー機4台で構成し、各ノードに24GBのメモリを積んでいます。 公式手順
KubeWeeklyは毎週Kubernetesに関する興味深いニュースを提供しています。(http://bit.ly/kubeweekly )この記事は 2018/10/10に発行された Kube Weekly #152 を読んで、感じたことをメモ的にまとめたものです。 私の勘違いや説明不足による誤解もあるかと思いますので、この記事読んで「おっ」と思ったらURLを辿って本文を確認してください。 The Headlines Annual “CNCF Community Awards” Nominations Kick Off – Winners to be Recognized at KubeCon + CloudNativeCon Seattle - Cloud Native Computing Foundation
はじめに 2018年9月にV3.1.0がリリースされたので,無償版(Community Edition)をシングル構成でインストールしてみます。 本記事は2018年10月17日執筆時点のものです。公式マニュアルは以下を参照ください。 参考: Installing IBM® Cloud Private-CE 参考: ICP CloudNative Edition(有償ライセンス版) システム要件 ICPの概要について興味のある方は,以下も合わせて参照ください。 2017年12月投稿記事: IBM Cloud Private: Kubernetesをオンプレミス(IaaS)に導入してみる 事前に準備するもの Kubernetesクラスターを構成するインスタンス (VM1つ) を用意 OS: Ubuntu Server 16.04 LTS vCPU: 16core Memory: 32GB Di
後編はこちら はじめに OpenShift Origin v3.9 で環境を構築し、自分で作成したアプリケーションをGitHub からデプロイするところまでできましたので、その手順を書きます。 構築するにあたって色々検索してみましたが、Master 1台、Node 2台の最小構成だったり、 Hello World を表示するだけだったりと実用的でない例しか見つからなかったので、 もう少し実用的で体系的な例として書くことにしました。 長いですが、大部分はOpenShift インストール前のサーバーのセットアップですので難しくは無いです。 前編はOpenShift のインストールまで。後編はアプリケーションのデプロイから。 1. 構成と前提 KVM 上の仮想マシーンにOpenShift の環境を構築 Master, Infra Node, application Node それぞれ3台ずつ G
前編はこちら 続編はこちら はじめに 後編ではGitHub にあるソースコードからimage を作成してコンテナをデプロイしていきます。ここでは私が開発したTelnetman2 をデプロイすることにします。よくあるLAMP 構成のアプリケーションです。Apache 用コンテナ、MariaDB 用コンテナ、バッチ処理用コンテナの3つのコンテナから構成されます。ログなどの変動するファイルとデータベース用のファイルはGlusterFS 上のPersistent Volume に保存されます。汎用的な構成だと思いますので参考にして下さい。 コンフィグファイルが長くて見る気が失せるかもしれませんが、落ち着いて見るとdocker-compose によく似ていて変更すべき箇所は多くは無いので難しくないです。 Telnetman2 について少し紹介させて下さい。 私は通信会社に勤めていて、数100 ~ 2
Libertyコンテナにロケールとタイムゾーンを設定する方法のメモ。 ロケールの設定 Libertyの公式DockerHubでDockerfileをたどっていくと、 websphere-liberty:javaee8 > websphere-liberty:kernel > ibmjava:8-jre > ubuntu:16.04 となっており元のイメージはUbuntuである。 ロケールを確認するとPOSIXとなっている。 $ docker run --rm -it websphere-liberty:18.0.0.3-kernel locale LANG= LANGUAGE= LC_CTYPE="POSIX" LC_NUMERIC="POSIX" LC_TIME="POSIX" LC_COLLATE="POSIX" LC_MONETARY="POSIX" LC_MESSAGES="POS
Rancher には RBAC の仕組みが備わっており,以下の3種類のスコープが存在する. Global Permission: 特定クラスタに依存しない権限, Catalogやアカウント管理など Cluster Role: Kubernetesクラスタ別の権限, ノードやストレージ, プロジェクトの管理など Project Role: プロジェクト別の権限, 名前空間の管理やサービス, シークレット, ボリュームなど (Permission と Role という単語が並列に用いられているのがもやっとする) 各スコープには複数のロールと権限が存在するが, 公式ドキュメントには Rancher の RBAC は Kubernetes の RBAC をベースとして実装している と説明があるだけで具体的な権限についての説明がない. ここでは Rancher の RBAC における 権限について確
Istioで複数アプリケーションを別Host名でホスティングするのに詰まったので、記事にしておきます。 Istio自体の導入については前回の記事などをご参考ください。 問題 前回の記事で導入したのと同じように 別のNamespaceを新たに作成し、Istio injectionを有効化 そこに新しいFQDN用のGatewayとVirtualServiceを作成 して、新しいFQDNのリソースをIstioで受けられるようにしたかったのですが、どうしてもできないのです。 いろいろ試して実験してみたところ、 VirtualServiceは、自分が所属するNamespace内に存在するGatewayにしか紐づけできない 複数のGatewayを複数のNamespaceにデプロイすると、最初にデプロイしたGatewayに記載のあるFQDNしか名前解決ができない ということがわかりました。 異なるアプリ
前提 https://qiita.com/ta_yaboo/items/1c86d1f94d0ffa0d9bae https://qiita.com/ta_yaboo/items/ac8408b500052523fe9f https://qiita.com/ta_yaboo/items/f442127db50385ba600a これらで紹介した通り、raspberryPIを使ってkubernetesクラスタを構築したところまではよかったのだけれども、サーバーとして使うことはできない状態でした。 問題点 クリアしないといけない問題と解決方法は以下の通りです。 クラスタ内で名前解決ができない 試しにnginxのコンテナを突っ込んだPodとServiceをデプロイしてみました。 apiVersion: extensions/v1beta1 kind: Deployment metadata: l
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに この記事はリファラル採用を促進する『MyRefer』を運営する『株式会社MyRefer』の有志のエンジニアによって書かれました。 エクストリーム輪読会を通して、得られた知見をできるだけ簡単にまとめて、 **『3分で読んだ気になれるような記事を書こう!』**という趣旨で書かれています。 エクストリーム輪読会について書かれている部分があるので、本の内容だけ把握したい人は下部のまとめパートまで読み飛ばして下さい。 エクストリーム輪読会とは 一般的な輪読会は事前学習が必要な上に、発表者以外の人に知識が定着しずらいという想いがあり、それ
Name: hoge.example.com Namespace: default (略) Events: Type Reason Age From Message ---- ------ ---- ---- ------- Warning IssuerNotReady 4s (x3 over 16s) cert-manager Issuer letsencrypt-prod not ready こういうやつ。待てど暮らせど通らない。 1.いくつもIssureを放り込んでいる あちこちの記事を見ながら、kubectl apply -f ....とかやってる間に、どうも複数のIssureが登録されていた。 なんかkubectl describe certした時に対象としてる証明書の名前が変だったので、チュートリアル記事を読みながら作業していたときの残骸が邪魔していた。 同じyamlファイルの
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く