詳しい経緯 定期的にやっているメンテナンスで、ESXiのアップデートとパッチあてを実施した。 ウチでは主要なESXiはアクティブとスタンバイの2台で構成しているので、vMotionでゲストを片寄せしてそれぞれアップデートをし、パッチをあてた。 メンテナンスも無事終わり、ゲストを元のESXiに戻したら、 その1日後にESXiに載っているWindowsゲスト全部のNTPがなんかずれたっぽい。 以前からゲストOSの再起動時に同じような現象が起きていたのだけれど、その頃は時間がなかったので、再起動の度に適当にNTPを合わせるという対応で騙し騙し運用をしてきた。 因みにこいつは最近ESXiを含めたハードウェアのリプレースを済ませたばかりだ。 ぶっちゃけリプレースをすれば解消するかなーとかぼんやり思っていたのでちょっとショック。 ていうかゲストの再起動とか時刻変わるようなことはしていないし。なんで起き
VMMの高速化について学ぶ過程でKVMのコードを読んだので、 メモ代わりに内部構造の解説記事を書きました。 KVMはqemuと連携して動作するため、以前私が書いたQEMU internals( http://rkx1209.hatenablog.com/entry/2015/11/15/214404 ) も合わせてご参照ください。また本記事はある程度システムプログラムに慣れており、 VT-xや仮想化の基本アーキテクチャは知っている物として進めます。 1.qemu-kvm,kvmの初期化 では早速見て行きましょう。まずはKVMの初期化の入り口となるqemu-kvmサイドから見ていきます。(ちなみに現在qemu-kvmはqemu本家に統合されておりconfigを変えることでkvmを有効化する仕様になっています) qemuは/dev/kvmを通してKVMとやり取りを行います。全体的なアーキテクチ
全体のアウトライン Part.1 KVM及び、oVirtの構築 Part.2 oVirtの初期設定 Part.3 仮想マシンを作成する(Linux) Part.4 仮想マシンの作成(Windows) おまけ 本章のアウトライン oVirtにKVMハイパーバイザーをホストとして追加 KVMのストレージを設定 NFS設定変更 oVirtにドメインを追加・作成 新規ドメインをストレージに作成 ISO_DOMAINをストレージに追加 oVirtの初期設定 Part.1の続きです。 本章ではoVirtの初期設定を実施します。 WebブラウザでoVirtに接続できるところまで進められている事が前提です。 oVirtにKVMハイパーバイザーをホストとして追加 oVirtを無事動かす事ができた為、今度は簡単に初期設定を済ませます。 まず、管理対象のホストが未登録なので、それをoVirtに登録します。 [ホ
$ yum install libvirt qemu-kvm bridge-utils インストール中: bridge-utils x86_64 1.5-9.el7 base 32 k libvirt x86_64 1.2.8-16.el7_1.2 updates 96 k qemu-kvm x86_64 10:1.5.3-86.el7_1.1 updates 1.8 M 依存性関連でのインストールをします: augeas-libs x86_64 1.1.0-17.el7 base 332 k autogen-libopts x86_64 5.18-5.el7 base 66 k boost-system x86_64 1.53.0-23.el7 base 39 k boost-thread x86_64 1.53.0-23.el7 base 56 k bzip2 x86_64 1.0.6
VMware Player では仮想ネットワークに「NAT」、「ホストオンリー」、「カスタム」、「LAN セグメント」などの種類を選ぶことができます。 ゲスト OS に検証用のサーバー OS を入れてセットアップする際に、更新モジュールをダウンロードする等の理由で外部と通信したいことは多いと思います。 外部接続を行うという点では「NAT」を選択するのがお手軽ですが、ゲスト OS がどのように外部へアクセスするのかが気になります。 ここでは NAT の設定に絞り、この時の挙動を詳しく知ることで様々な場面に適用するためのヒントをまとめます。 実際のところ、NAT ネットワークを押さえておけばいろいろな用途で使うことができます。 なお、この記事は Windows 版 VMware Player 6.0.1 を前提として書いています。 ネットワークの構成 下図は NAT 仮想ネットワークの構成イメ
ここ一ヶ月ほどQEMUのコードとお戯れしていたのですが、 qemuのソースコードもうすぐ読みきりそうなのでどこかにまとめたいんだけど、qemu internalみたいな記事ってどれぐらい需要あるの— 前代未聞 (@RKX1209) 2015, 11月 9 と言ってみた所なんとなく需要がありそうだったので書きました。 本記事ではQEMUの内部実装を追い、具体的な仕組みを見ていきます。もし研究や仕事などでqemuを読む必要がある方や、これから趣味で読んでみようという方はぜひ参考にしてください。 (QEMU internalsというよりはQEMUコードリーディングの方が適切かもしれませんね....) さてここで扱うQEMUはqemu2.4.0でゲストはx86,ホストはx64であると仮定します。 両方共x86系となるとDBTの意味はあまり無く、KVM使ってどうぞという話になるのですが、あくまでコー
Dockerは6月22日(日本時間23日早朝)に開催した「DockerCon 2015」の基調講演で、新しいコンテナランタイム「runC」を発表しました。 Docker Engineと互換、Linux、Windowsをネイティブサポート、ライブマイグレーションも runCのWebサイトの説明によると、runCはDocker Engineと同じ技術であるlibcontainer上に実装されており、Dockerと互換性を備え、従来のDockerイメージはそのまま実行可能。一方、コンテナはrunCの子プロセスとして起動し、デーモンが不要になることで管理が容易になるとのことです。 マイクロソフトとの協業の成果もrunCに投入され、LinuxとWindowsをネイティブにサポート。x86はもちろん、ARMとも協力し、ARMプロセッサもサポート。 runCは「It's available today,
[速報]「Open Container Project」発足。Docker、CoreOS、マイクロソフト、Amazon、Googleらが合流し、コンテナは統一仕様へ 6月22日(日本時間23日早朝)に開催した「DockerCon 2015」の基調講演において、コンテナ標準化団体「Open Container Project」の発足が発表されました。 コンテナの標準仕様「Open Container Format」発表 Docker創業者兼CTOのSolomon Hykes氏。 Dockerの本当の価値はテクノロジーではない。 何も変更することなくどこでも同じアプリケーションが実行でき、そうしたものが自動化できる、ということが重要だ。Dockerはそのデファクトスタンダードになった。 私たちにはこれを適切な標準にする義務がある。そこで、「Open Container Format」を発表する
さくらのVPSではacpiを動かしておこう
はじめに virt-install と Kickstart を使って X Window なしで KVM に CentOS をインストールします。 Kickstart 定義ファイル Kickstart 定義ファイルを作成します。 RHEL や CentOS を普通にインストールすると /root/anaconda-ks.cfg に Kickstart 定義ファイルが作成されるので、そのファイルを参考に作成します。 ks.cfg cmdline install lang en_US.UTF-8 keyboard jp106 network --device eth0 --onboot yes --bootproto dhcp --noipv6 --hostname hoge zerombr bootloader --location=mbr --append="crashkernel=auto
今からでも間に合うDockerの基礎。コンテナとは何か、Dockerfileとは何か。Docker Meetup Tokyo #2 コンテナ型仮想化の技術として注目されているDockerの勉強会「Docker Meetup Tokyo #2」が4月11日にグーグル東京オフィスで開催されました。 この勉強会には定員100名のところへ400名を超える申し込みがあり、参加できなかった方も多かったと思います。本記事では、最初のセッションとして行われた森和之氏による「今からでも間に合うDocker基礎+Docker 0.9概要」をダイジェストで紹介しましょう。 参考記事 2013年のDocker登場から現在(2018年)までを振り返り、その次の段階を展望した記事もご参照ください。 Dockerコンテナ時代の第一章の終わり、そして第二章の展望など 今からでも間に合うDocker基礎 株式会社トップゲー
だいぶ前からDocker(Linuxコンテナ)のパフォーマンスについて、速いことは速いだろうけどどの程度速いのか、もし遅いことがあるなら何がパフォーマンスにとって重要なのか(AUFSが遅いとかそういうの)が気になっていたので、今回は で紹介されていた Docker のパフォーマンス検証に関する IBM の Research Report を読んだ。Report の内容をベースに、Docker のパフォーマンスの勘所などをまとめてみた。 Report のタイトルは An Updated Performance Comparison of Virtual Machines and Linux Containers 。 GitHub にベンチマークコードと実験データが置いてあってちゃんとしてる。 前提 まず、VMとコンテナの歴史を振り返るのに知らぬはエンジニアの恥。今さら聞けない【コンテナ/仮想
今までいろいろ触ってきて,Dockerネットワーク周りに関しては何となくは理解していたが,人に説明できるほど理解してなかったのでまとめておく.基本は,Advanced networking - Docker Documentationがベースになっている. 仮想ブリッジの仕組み Dockerのネットワークは,仮想ブリッジdocker0を通じて管理され,他のネットワークとは隔離された環境で動作する. Dockerデーモンを起動すると, 仮想ブリッジdocker0の作成 ホストの既存ルートからの空きのIPアドレス空間を検索 空きから特定の範囲のIPアドレス空間を取得 取得したIPアドレス空間をdocker0に割り当て が行われる. コンテナを起動すると,コンテナには以下が割り当てられる. docker0に紐づいたveth(Virtual Ethernet)インターフェース docker0に割り
Linux女子部08「Docker勉強会」 http://connpass.com/event/6318/ で使用予定の資料の一部です。 変更履歴 ver1.0 公開 ver1.1 参考資料追加、微修正 ver1.2 pid namespaceの例を変更、微修正 ver1.3 Fedora20 + Docker1.0 に手順を変更 ver1.4 dm-thinprovisiongのイメージを直接操作する手順を復活 ver1.5 LVMによるdm-thinprovisioningの図を追加 ver1.6 微修正 ver1.7 LVMでのdm-thin snapshotは変更できない旨を記載 、スナップショット作成の図を微修正 ver1.8 「LVMでのdm-thin snapshotは変更できない旨」は間違ってたので、snapshotを有効化する方法を追記
えっと、普段は64ビットマシン(Windows7)でAndroidのフルビルドとかやってます。 VWMWare Player3.1.2にUbuntu10.04をゲストOSとしてインストールして環境構築してます。 当初40GBほど仮想ディスクを割り当てたのですが、あっという間にディスクが減ってきます。 残り20%:8Gほど。8GBぽっちだと、repo syncでソース取ってくるくらいなら良いですが、Makeしたら間違いなく足らなくなります。 ということで仮想ディスクのサイズ変更をしたいなと、 仮想マシン→仮想マシンの設定 ハードディスクのユーティリティで増やしても、Ubuntuにログインしてdfしても、あれ容量増えてない。 調べてみると、VWMwareで設定変更しても、それはゲストOSに反映されないので、パーティションツールとか使って広げてねと。 う~ん、けっこう悩みました。色んなサイトに書
Photo by Sam MacCutchan どうも後藤です! もう10年以上になるでしょうか・・・ とにかくなんでもかんでも仮想化すればよいというこの風潮。paizaでも仮想化技術は大活躍中。インフラは仮想化技術の上に構築されているし、もちろんコードの評価環境だってばりばりの仮想環境上です。仮想環境ばっちこーい! いったいいつからこんな流れになったんでしょう?どこに基準を求めるかでだいぶかわりますけれども、執筆現在から考えると、こうした流れには35年くらいの歴史があります。使われる仮想化技術は時代とともにかわってきました。だいたいどの時代にも流行ってものがありました。 最近(2014年ごろ)の流行とえば、インフラの一番下にハイパーバイザを入れて、その上でDockerを動かして、管理にはChefやPuppetを使うといったものです。数年経てば状況は変わるでしょうけれども、とにかく楽をした
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く