Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

グローバル展開するクラウド・ベンダーを対象にKubernetesサービスのスペックを比較しました。追加・修正ありましたら随時更新しますのでコメント欄にてお知らせください。
VirtualBoxの最近のバージョンでのVMディスクの拡張方法(2018年10月) 環境: VirtualBox 5.2.18 CentOS 7.5 ※デフォルト最小構成でインストール 手順: まずは仮想基盤上での拡張 [GUIからできるようになっている!!] 対象VM停止 VirtualBox画面右上のグローバルツール→ ハードディスク→ 対象VMのディスク→ プロパティ→ サイズ変更(拡張)→ 適用 対象VM起動 次にfdiskによるパーティションの拡張 # fdisk /dev/sda コマンド (m でヘルプ): p Disk /dev/sda: 32.2 GB, 32212254720 bytes, 62914560 sectors デバイス ブート 始点 終点 ブロック Id システム /dev/sda1 * 2048 2099199 1048576 83 Linux /de
症状 WindowsにインストールしたVirtualBoxで,64bit版Windowsが選べない。(OSの選択肢に64bit版Windowsが表示されない) 実証環境 Windows10 64bit版 VirtualBox (Version 5.2.20) 確認事項 Hyper-V BIOS Windows Defender Hyper-Vの確認 原因 Hyper-VとVirtualBoxは,Intel製CPUの機能であるIntel virtualization technologyの機能の"奪い合い"が発生してしまい,Hyper-Vが優先されてしまうため共存することが出来ない。 解決策 以下の手順でHyper-Vを削除(無効化)する。 Windows ボタンを右クリックし、アプリと機能を選択する。 Windowsの機能の有効化または無効化を選択する。 Hyper-Vのチェックボックスか
1.必要なソフトウェアの準備 ・VirtualBox本体 ・Ubuntu XX.XX イメージファイル 例:ubuntu-99.99.9-desktop-amd64.iso VirtualBoxのインストール ・ローカルでセットアップexeを展開 ・特に何も触らずポチポチと進める 2・VMイメージファイルの作成 起動⇒新規 仮想マシンの作成 の設定 名前:任意 タイプ:Linux バージョン:Ubuntu(64-bit) ※64-bitが選択肢に無い場合BIOSの設定変更が必要(グーグル先生に聞く メモリサイズ:任意 ハードディスク:仮想ハードディスクを作成する 仮想ハードディスクの設定 ファイルの場所:任意 ファイルサイズ:任意 ハードディスクのファイルタイプ:VDI ストレージ:可変 VMイメージの設定 設定⇒ストレージ コントローラーIDEを選択し、画面右の光学ドライブを選択 Ubu
はじめに Kubernetes公式ドキュメントのExample: Deploying Cassandra with Stateful Setsを実行しました。 NFSストレージはPersistentVolume(PV)で確保しているため、StorageClass(SC)を利用する例がそのままでは実行が難しかったのでPVを利用するように書き換えたので要点をまとめました。 このPersistentVolumeは過去にまとめたKubernetesでNFSを利用してPersistentStorageを準備するに従って準備しています。 NFSを前提としてSCを確保する方法をまとめている方もいましたが、そちらは試していません。 環境について Kubernetesクラスターは、Kubesprayを利用して、Xeon E3を積んだサーバー機4台で構成し、各ノードに24GBのメモリを積んでいます。 公式手順
KubeWeeklyは毎週Kubernetesに関する興味深いニュースを提供しています。(http://bit.ly/kubeweekly )この記事は 2018/10/10に発行された Kube Weekly #152 を読んで、感じたことをメモ的にまとめたものです。 私の勘違いや説明不足による誤解もあるかと思いますので、この記事読んで「おっ」と思ったらURLを辿って本文を確認してください。 The Headlines Annual “CNCF Community Awards” Nominations Kick Off – Winners to be Recognized at KubeCon + CloudNativeCon Seattle - Cloud Native Computing Foundation
はじめに 2018年9月にV3.1.0がリリースされたので,無償版(Community Edition)をシングル構成でインストールしてみます。 本記事は2018年10月17日執筆時点のものです。公式マニュアルは以下を参照ください。 参考: Installing IBM® Cloud Private-CE 参考: ICP CloudNative Edition(有償ライセンス版) システム要件 ICPの概要について興味のある方は,以下も合わせて参照ください。 2017年12月投稿記事: IBM Cloud Private: Kubernetesをオンプレミス(IaaS)に導入してみる 事前に準備するもの Kubernetesクラスターを構成するインスタンス (VM1つ) を用意 OS: Ubuntu Server 16.04 LTS vCPU: 16core Memory: 32GB Di
Cloud9を卒業して、ローカルで開発環境を構築しようとしている方って結構いると思います。 筆者もその一人ですが、なかなか思ったように動いてくれないことも多々。。 そんな方へ向けた、一つの提案です。 ホストOS上に構築するデメリット そもそもホスト環境と仮想環境って何が違うのか? こちらにわかりやすくまとまっているので参考にしてみてください。 5分でわかる「仮想マシン」とは?今さら聞けない基礎・基本を解説 ざっくりホストOS上に環境構築するデメリットをあげると、 ホストOS上のローカル環境には目的のソフトウェア以外のソフトウェアも置かれているわけです。 すると、相互に影響すると何が原因で構築の際にエラーが起こっているのか追いかけにくくなってしまうのです。 エラーメッセージからすぐに理解して解決できるのであればよいのですが、 初心者の場合はわからなかったり、ググって出てきた解決法を意味もわか
後編はこちら はじめに OpenShift Origin v3.9 で環境を構築し、自分で作成したアプリケーションをGitHub からデプロイするところまでできましたので、その手順を書きます。 構築するにあたって色々検索してみましたが、Master 1台、Node 2台の最小構成だったり、 Hello World を表示するだけだったりと実用的でない例しか見つからなかったので、 もう少し実用的で体系的な例として書くことにしました。 長いですが、大部分はOpenShift インストール前のサーバーのセットアップですので難しくは無いです。 前編はOpenShift のインストールまで。後編はアプリケーションのデプロイから。 1. 構成と前提 KVM 上の仮想マシーンにOpenShift の環境を構築 Master, Infra Node, application Node それぞれ3台ずつ G
前編はこちら 続編はこちら はじめに 後編ではGitHub にあるソースコードからimage を作成してコンテナをデプロイしていきます。ここでは私が開発したTelnetman2 をデプロイすることにします。よくあるLAMP 構成のアプリケーションです。Apache 用コンテナ、MariaDB 用コンテナ、バッチ処理用コンテナの3つのコンテナから構成されます。ログなどの変動するファイルとデータベース用のファイルはGlusterFS 上のPersistent Volume に保存されます。汎用的な構成だと思いますので参考にして下さい。 コンフィグファイルが長くて見る気が失せるかもしれませんが、落ち着いて見るとdocker-compose によく似ていて変更すべき箇所は多くは無いので難しくないです。 Telnetman2 について少し紹介させて下さい。 私は通信会社に勤めていて、数100 ~ 2
Libertyコンテナにロケールとタイムゾーンを設定する方法のメモ。 ロケールの設定 Libertyの公式DockerHubでDockerfileをたどっていくと、 websphere-liberty:javaee8 > websphere-liberty:kernel > ibmjava:8-jre > ubuntu:16.04 となっており元のイメージはUbuntuである。 ロケールを確認するとPOSIXとなっている。 $ docker run --rm -it websphere-liberty:18.0.0.3-kernel locale LANG= LANGUAGE= LC_CTYPE="POSIX" LC_NUMERIC="POSIX" LC_TIME="POSIX" LC_COLLATE="POSIX" LC_MONETARY="POSIX" LC_MESSAGES="POS
Rancher には RBAC の仕組みが備わっており,以下の3種類のスコープが存在する. Global Permission: 特定クラスタに依存しない権限, Catalogやアカウント管理など Cluster Role: Kubernetesクラスタ別の権限, ノードやストレージ, プロジェクトの管理など Project Role: プロジェクト別の権限, 名前空間の管理やサービス, シークレット, ボリュームなど (Permission と Role という単語が並列に用いられているのがもやっとする) 各スコープには複数のロールと権限が存在するが, 公式ドキュメントには Rancher の RBAC は Kubernetes の RBAC をベースとして実装している と説明があるだけで具体的な権限についての説明がない. ここでは Rancher の RBAC における 権限について確
目標 コマンドだけでvm作成 + OSインストールまで終わらせたい pxe boot VirtualBoxにはdhcpがついてて、それには特殊なpxeboot用の機能がついてる 公式マニュアル 6.3.2. PXE booting with NAT PXE booting is now supported in NAT mode. The NAT DHCP server provides a boot file name of the form vmname.pxe if the directory TFTP exists in the directory where the user's VirtualBox.xml file is kept. It is the responsibility of the user to provide vmname.pxe. https://www.
Istioで複数アプリケーションを別Host名でホスティングするのに詰まったので、記事にしておきます。 Istio自体の導入については前回の記事などをご参考ください。 問題 前回の記事で導入したのと同じように 別のNamespaceを新たに作成し、Istio injectionを有効化 そこに新しいFQDN用のGatewayとVirtualServiceを作成 して、新しいFQDNのリソースをIstioで受けられるようにしたかったのですが、どうしてもできないのです。 いろいろ試して実験してみたところ、 VirtualServiceは、自分が所属するNamespace内に存在するGatewayにしか紐づけできない 複数のGatewayを複数のNamespaceにデプロイすると、最初にデプロイしたGatewayに記載のあるFQDNしか名前解決ができない ということがわかりました。 異なるアプリ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く