Hyper Callとは † 通常のOSを使う場合、hardwareとuserの間にOSが入ってくれて、面倒なhardware制御、userのhardwareへのアクセス制御をしています。つまり、直接はhardwareをいじることは出来ず、全ての作業はOSにSystem Callという形で依頼して行っています。 Xenの場合は、HypervisorというものがOS/hardware間に入っており、hardwareへのアクセスは全てこのhypervisorが代行しています。OSがハードをアクセルする時、OSはhypervisorに依頼をします。(userがOSに依頼したように)この依頼のプロトコルを"hyper call"といいます。ここでは、このhypercallがどのようなメカニズムで動いているか、紹介します。 ↑ 管理ツールからのHyper Call † Domain 0は、User
gdb-serverが出来上がったら、それをPATHが通っているディレクトリにコピーする。 もちろんしなくてもいい。起動するときに絶対パスで指定してもいい。 xenのコマンドであるxmがある場所にコピーしておくほうがいいのかもしれない。xmは管理者権限でないと実行できないコマンドになっているので、suで管理者になってから
Mini-OS is a tiny OS kernel distributed with the Xen Project Hypervisor sources. It is mainly used as operating system for stub domains that are used for Dom0 Disaggregation. But it is also used as a basis for development of Unikernels, having been instrumental in the formation of multiple examples including ClickOS and Rump kernels. As of March 2015 mini-os now has its own git tree. Previously (r
Xenのゲスト(Dom-U)のディスク領域を拡張する場合の手順のメモ。 Xenのゲスト(Dom-U)作成中に…、virt-managerのオススメにしたがいHDDは4Gで作成、ゲストOSの インストール、ネットワークその他もろもろ設定、開発ツールもろもろ設定、全て完了した後になって、 いざゲスト内で作業を始めてみると「あれ、Disk fullだー!?」ってなってしまったときの対処用 (ま、私が無計画に作業してるのが悪いんですけどね)。 ■前提環境 ホスト(Dom-0)OS: CentOS 5.3 + Xen ゲストディスク領域: ファイルイメージで作成 ゲスト(Dom-U)OS: RHEL 5.5 ゲストOSパーティション: LVM使用(RHELのデフォルトそのまま) まあRHEL5.*系ならだいたい同じだと思います。 ゲスト内はLVMが入っているので、新規にディスク領域を追加してLVMで
Xenのディスクイメージファイルを拡張してみました。]]Ubuntu Japan[[ にXenのディスクイメージの拡張方法が書いてあったので試してみたのですが、なかなかうまくいきませんでした。 # cd /etc/xen/images # mv sarge-root.img sarge-root.img.old # dd if=/dev/zero of=zero-1gb.img bs=1024k count=1024 # cat sarge-root.img.old zero-1gb.img > sarge-root.img # e2fsck -fv sarge-root.img # resize2fs sarge-root.img # e2fsck -fv sarge-root.img # xm create /etc/xen/sarge -c上記の手順だと少なくともOSがLinuxでL
Xen・DomU をそれぞれ独立したネットワークに繋げたいので、タグVLAN(IEEE802.1Q)の機能を使って Xen のネットワーク設定をする方法をまとめる。 以前に bonding を使った構成をまとめてあるが、まずは bonding を使っていないネットワーク構成下でのタグVLAN 設定方法をまとめる。 ここでは、すでに eth0(peth0)を使ってネットワーク接続ができているものとする。 最初に、/etc/sysconfig/network に以下を追記する。 VLAN=yes VLAN_NAME_TYPE=DEV_PLUS_VID 2つめのパラメータの意味については、下記参考を参照。 VLANID を 100 とすると、/etc/sysconfig/network-scripts/ifcfg-eth0.0100 というファイルを作成し、通常のネットワーク設定と同じように記述
tagged VLAN を仮想マシンの NIC まで引き込む設定方法。 要は外から入ってきた tagged パケットを、そのまま仮想マシンの NIC まで渡したいということ。 (tagged packet) -> Host:eth -> VM:eth -> (tagged packet) 結論から書くと、普通に bridge すると、すんなり VM まで tagged パケットが上がった。 環境 CentOS 6.2(64bit) + KVM + 標準Linux bridge。 ホストも仮想マシンも CentOS 6.2(64bit) ホストマシンの eth0 は管理アクセス用。eth1 は tagged VLAN なネットワークにぶら下がる用。 仮想マシンのNICの対応も同 eth0 系は設定済が前提 パケットの流れはこんな感じ。 (tagged packet) -> Host:eth1
Xenで起動中のドメインUにボリュームやディスクを追加する際の手順について。 ボリュームの追加は単に容量を増やしたい時の他、例えばドメインUでLVMの スナップショットを利用したいときにも。 スナップショットを利用するには専用の空き領域が必要だが、CentOSだと通常インストール時に ルートボリュームにまるごとひとつの論理ボリュームが割り当てられるため、 スナップショットに利用するFree PEが存在しない。この状態でlvcreate -sでスナップショットを 作成しようとすると、以下のエラーになるはず。 Insufficient free extents(0) in volume group こんなときはボリュームの追加で対応可能なので手順をメモしておく。 (逆にボリュームを縮小することでFree PEを作り出すこともできるようだが、、 作業が難航したため、没)もちろん、ドメイン0に割り
サブの方のサーバが死んだ。 起動中に強制終了しちゃった自分のせいだけど。 サブサーバはオープンソースのXen使ってたけど、今回XenServerにした。 KVMとかも使ってみたかったけど、完全仮想に対応してないから断念。 インストール 今回は、ホストOS用にSSD(32GB)、ゲストOS用にHDD(500GB)を使う。 ホストOSインストール時に、SRとして2つとも選択してしまうとSSDとHDDをLVMで繋げてしまう。 高速に動いて欲しいマシンと低速で大容量のマシンを作り分けるために、SRを分けたい。 インストール時はSSDのみを選択して、インストールが終わったあとでHDDをSRにする。 HDDを初期化する fdiskでパーティションを1つ作る。 [root@xenserver2 ~]# fdisk -l Disk /dev/sda: 32.0 GB, 32044482560 bytes
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く