サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
WWDC24
funmoco.seesaa.net
JavaやLinuxなどについて試したことなどを中心に書いています。 内容については保障できません。記事の内容を試してみる場合は、自己責任でお願いします。 本日は、Xen の Dom0 と DomU の時間の関係について。 少なくとも CentOS5 のデフォルト設定では、DomU の時刻は Dom0 と一致するようになっている。 そのため DomU で date コマンドで時刻設定をしても無効で、結局は Dom0 と同じ時間になる。 ただし、DomU 毎にタイムゾーンの指定はできるので大抵はこれで問題ないはず。 DomU の時刻を Dom0 に合わせたくないときには、カーネルパラメータ xen.independent_wallclock を '1' に設定することで可能。 参考:XenのDomUでNTPを使う たとえば、 # echo 1 > /proc/sys/xen/independ
JavaやLinuxなどについて試したことなどを中心に書いています。 内容については保障できません。記事の内容を試してみる場合は、自己責任でお願いします。 いくつか Munin についてまとめたけれど、そそもは Xen 上の Dom0, DomU による CPU 使用状況をモニタリングすることが目的なので、本日は Munin の Xen プラグインについてまとめる。 MuninExchange には、Xen CPU 使用状況に関するプラグインが2つほど公開されている(xen と xen-cpu)。 これらを使うには # chmod +x /path/to/xen # chmod +x /path/to/xen-cpu # cd /etc/munin/plugins # ln -s /path/to/xen . # ln -s /path/to/xen-cpu . な感じで、実行権を与えてシ
Munin を使って、1Gbps ネットワークトラフィックをモニタリングする方法のまとめ。 Munin にはネットワークトラフィックをモニタリングするプラグインが標準で2つある。if_ と snmp__if_。だけどこれらのプラグインは、32bit の値である /proc/dev/net の値を見ているすぎないので、1Gbps のネットワークの場合、32bit 値が桁あふれするので正常なグラフを表示することができない。 一方で SNMP では、IF-MIB:ifHCInOctets、IF-MIB:ifHCOutOctets というネットワークトラフィックを示す 64bit カウントがあり、CentOS5 に同梱されている net-snmp ではこれらの値を使用することができる。実際のところ 64bit 値が Linux システム内に存在するわけではなく、snmpd が約30秒おきに /pr
昨日設定した bonding デバイスを Xen のブリッジで使う方法についてのまとめ。 ここでは bond0 をブリッジ xenbr0 に登録 bond1 をブリッジ xenbr1 に登録 のように2つのブリッジを作成することにする。まず、 # cd /etc/xen/scripts # mv network-bridge network-bridge.core として、既存のブリッジ設定スクリプトを名前変更しておく。 つぎに /etc/xen/scripts/network-bridge を以下の内容で作成。 #!/bin/sh # Exit if anything goes wrong set -e # First arg is operation. OP=$1 shift script=/etc/xen/scripts/network-bridge.core exec_operat
JavaやLinuxなどについて試したことなどを中心に書いています。 内容については保障できません。記事の内容を試してみる場合は、自己責任でお願いします。 引き続き、Munin をしらべているのでそのメモ。 ノードの追加と、グループの移動についてまとめおく。 まずは、ノードの追加。 前回は、サーバとノードを同じマシン上にインストールしたので、新たにノードを追加することにする。 前回の内容にあるとおり、ノードで必要となる rpm のみインストールする。 次に、/etc/munin/munin-node.conf の allow を allow ^192\.168\.0\.1$ のように、サーバからアクセスを許可するように記述。この allow は正規表現で記述する CIDR スタイルはだめ allow は複数行記述可能 ということらしい。 プラグインを適宜追加・削除したら、 # chkcon
Xen・DomU をそれぞれ独立したネットワークに繋げたいので、タグVLAN(IEEE802.1Q)の機能を使って Xen のネットワーク設定をする方法をまとめる。 以前に bonding を使った構成をまとめてあるが、まずは bonding を使っていないネットワーク構成下でのタグVLAN 設定方法をまとめる。 ここでは、すでに eth0(peth0)を使ってネットワーク接続ができているものとする。 最初に、/etc/sysconfig/network に以下を追記する。 VLAN=yes VLAN_NAME_TYPE=DEV_PLUS_VID 2つめのパラメータの意味については、下記参考を参照。 VLANID を 100 とすると、/etc/sysconfig/network-scripts/ifcfg-eth0.0100 というファイルを作成し、通常のネットワーク設定と同じように記述
JavaやLinuxなどについて試したことなどを中心に書いています。 内容については保障できません。記事の内容を試してみる場合は、自己責任でお願いします。 本日は、NIC の冗長化のまとめ。 Linux には bonding ドライバというものがあって、複数のネットワークデバイスを1つの仮想的なネットワークデバイスに見せることができる。 たとえば、eth0 と eth1 を1つにまとめて bond0 というようなデバイスを作れる。これにより、eth0/eth1 をラウンドロビンで使うことで負荷分散をしたり、Actve-Backup のように使うことができる。上位のアプリケーションからすれば、bond0 を使っていれば実際の物理デバイスがどう使われるか気にしなくてよくなるということ。 以下は、OS を CentOS5 とし、 eth0 と eth1 を1つにまとめて bond0 というネット
以前に、Xen と タグVLAN(IEEE802.1Q)の組み合わせについてまとめたけれど、今回はさらにこれに bonding も組み合わせる方法をまとめる。 単純に考えると、以前の方法の eth0 を bond0 に、eth0.0100 を bond0.0100 のように置き換えればよいように思えるが、その方法では、ブリッジを構成するスクリプト内の ip link set bond0.0100 name pbond0.0100 という処理で kernel panic が発生しシステムが停止してしまう。 そのため、bonding かつ タグVLAN(IEEE802.1Q)を Xen ブリッジ構成で利用するためのスクリプトとその使い方を以下に書く。 続きを読む
以前に、Xen と タグVLAN(IEEE802.1Q)の組み合わせについてまとめたけれど、今回はさらにこれに bonding も組み合わせる方法をまとめる。 単純に考えると、以前の方法の eth0 を bond0 に、eth0.0100 を bond0.0100 のように置き換えればよいように思えるが、その方法では、ブリッジを構成するスクリプト内の ip link set bond0.0100 name pbond0.0100 という処理で kernel panic が発生しシステムが停止してしまう。 そのため、bonding かつ タグVLAN(IEEE802.1Q)を Xen ブリッジ構成で利用するためのスクリプトとその使い方を以下に書く。 構築するネットワーク構成 ここでは以下のような、bonding, vlan, ブリッジで構成されるネットワークを構築することにする。 +----
本日は、Linux で Multipath I/O を実現する方法のまとめその1。 SCSI(iSCSI含む)デバイスへの I/O パスを冗長化するために、Linux では mdadm によりマルチパスデバイスを作成することができる。 以下では、CentOS5(+ iSCSI)の環境でマルチパスデバイスを作成、使用する方法を記述する。 マルチパスデバイスの作成方法 まず物理的に1つの LUN に対して、2つ(以上)のパスで接続しておく。 iSCSI であれば、iSCSI Target を2つのネットワークアドレスを持つように設定し、Initiator からそれぞれのアドレスに対して接続する。 ここでは、同じ LUN に対して /dev/sda1 /dev/sdb1 のように見えているとする。 そこで、次のように mdadm コマンドを使い マルチパスデバイスを作成する。 # mdadm -
前回に構築した iSCSI Boot なシステムでは、 iSCSI へのネットワーク接続ラインが物理的に1本しかないため、このラインやネットワークに障害が発生すると、システムが停止してしまう。 そこで、今回は Multipath I/O の仕組みを利用してパスの冗長化をする。 ここでは、起動時に initrd 内でマルチパスデバイスを(毎回)作成して、そのデバイスを利用するような方法を考える。なお、すでにファイルシステムを作成しているデバイスをマルチパスデバイスとするために、persistent-superblock は利用しない(使うと、ファイルシステム異常となる。mdadm 的には Create ではなく Build を使用するということ)。 initrd の修正 まず、既存の initrd を展開する。 # cd /tmp # mkdir initrd # cd initrd # z
Intel の PCI Express 版 PRO/1000 Server Adapter は iSCSI Boot をサポートしている。今回はこれを利用した iSCSI Boot システムの構築方法についてまとめる。 Intel PRO/1000 Server Adapter の設定 Intel の PCI Express 版 PRO/1000 Server Adapter の標準のままでは iSCSI Boot ができないので iSCSI Boot に対応するには Flash ROM を書き換えなければならない。そこでまず、Download Center より、ISBOOT.EXE を取得する。 取得した ISBOOT.EXE を実行すると保存場所(展開場所)を聞かれるので適当に指定。この展開したディレクトリの iSCSIUtl\DOS に iSCSIUtl.exe があるので、DoS
JavaやLinuxなどについて試したことなどを中心に書いています。 内容については保障できません。記事の内容を試してみる場合は、自己責任でお願いします。 サーブレットや JSP で未補足例外が発生したときに、その例外をキャッチしてアラートを挙げたうえで、カスタマイズしたエラーページを表示したい。 すべきことは、結局はエラーページのカスタマイズになるので、その方法をまとめる。 まずは、任意の例外を捕まえるために、web.xml に <error-page> <exception-type> java.lang.Throwable </exception-type> <location>/error.jsp</location> </error-page> を書いておく。 これで、未補足例外は error.jsp に流れてくるようになる。 なお、"/error.jsp" はコンテキストのルー
前回にひきつづき IPMI について。今回は、Serial Over LAN(以下 SOL)についてまとめる。 SOL は、LAN 経由でシリアル接続ができるというもの。これにより、BIOS 起動画面、BIOS 操作をはじめ Linux へのログインまでも LAN 経由のシリアル接続で可能となる。 設定 以下では、転送速度を 19200 bps としているが大意はない。 まず、IPMI の設定。SOL の設定は lanplus インターフェイスに接続する。また、今回の SR1500 ではオプションとして intelplus を指定する必要がある。 ということで、設定は以下のような感じ。 # ipmitool -I lanplus -o intelplus -H 192.168.9.2 -A MD5 \ -U admin -P hogehoge sol set privilege-level
JavaやLinuxなどについて試したことなどを中心に書いています。 内容については保障できません。記事の内容を試してみる場合は、自己責任でお願いします。 先日ソフトウェアによる共有ストレージとして GNBD について調べたけれど、ソフトウェアによる block レベルの共有ストレージとして iSCSI は外せないので、今日はその調査メモ。 使うのは iSCSI Enterprise Target。OS は相変わらず、CentOS5。 ビルドしてのインストールなので、カーネルソース(kernel-devel)をインストールしておく。また、iSCSI Enterprise Target は SSL のライブラリを必要とするみたいなので、openssl-devel およびその依存パッケージをインストールしておく。 ビルドできる環境が整えば、以下のようにして iSCSI Enterprise T
ハードウェアを監視・管理するための標準仕様である IPMI(Intelligent Platform Management Interface)についてまとめる。 IPMI により、LAN 経由でサーバの電源をオン・オフしたり、シリアル接続を LAN 経由で行えたりする。今回は、LAN 経由でサーバの電源をオン・オフするところまでのまとめとする。 以下では、ハードウェアは Intel Server Chassis SR1500 を、OS は CentOS5 を使った場合について記述する。 準備 まず、IPMI を実装しているハード上の CentOS から直接 IPMI にアクセするために OpenIPMI-2.0.6-5.el5.3.i386.rpm OpenIPMI-libs-2.0.6-5.el5.3.i386.rpm OpenIPMI-tools-2.0.6-5.el5.3.i386
JavaやLinuxなどについて試したことなどを中心に書いています。 内容については保障できません。記事の内容を試してみる場合は、自己責任でお願いします。 Xen をつかって仮想環境を構築しているのですが、目的のひとつがリソースの有効活用であるので、そのリソースがどう使われているかをきちんと把握しなくちゃいけないということで、リソース監視ツールを探してみた。 いろんなところの情報から、導入が簡単でかつ非常に多くの情報が取得でき、さらに拡張も容易である Munin を使ってみる。 まずは、インストール。 CentOS5 を最小構成でインストールし、その後 Apache、rpmbuild、をインストールしている環境を前提する。(rpmbuild SRPM から rpm を作成する環境でのみ必要なので、作成した rpm をインストールする環境では当然ながら不要) CentOS5 向けには rpm
このページを最初にブックマークしてみませんか?
『funなJava、mocoなLinux』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く