タグ

ブックマーク / nkjmkzk.net (12)

  • あるデバイスがOS(Linux)でサポートされているか調べる方法 at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud Computing「このデバイス(NIC, HBA)、僕/私のOSで動くかな?」というシチュエーションは実際の案件でもよくあります。これを調べる方法を記載しておきます。 まずはデバイスのPCI IDを調べます。 デバイスが手元にない場合はWebを検索したりベンダーさんに問い合わせることでPCI IDは入手することができます。下記はデバイスがすでにマシンに差さっている場合の確認方法です。 lspciコマンドでOSが認識しているPCIデバイスを列挙します。 [root@~]# lspci 00:00.0 Host bridge: Intel Corporation 5520/5500/X58 I/O Hub to ESI Port (rev 12) 00:01.0 PCI bridge: Inte

  • ルートファイルシステムをBtrfsにする方法(Oracle Linux 5.6) at nkjmkzk.net

    Linux/Unix, Server Virtualization, Storage, Database, Cloud ComputingFedora 16でデフォルトファイルシステムとなることがアナウンスされ、Btrfsはいよいよ格的に使われはじめることと思います。今回は最新のBtrfsソースコードを用いてLinuxのルートファイルシステムをBtrfsにしてしまう手順を紹介します。 OSは仮想マシンのOracle Linux 5.6 x86_64をベースにして進めていきます。 まずはBtrfsのソースコードを取ってくる必要があります。最新のソースコードはgitで管理されており、gitコマンドでダウンロードする必要がありますのでまずはgitを使えるようにします。 EPELレポジトリを利用可能にし、yumでgitをインストールします。 [root@~]# cd /var/opt [roo

  • Ext4, ついに安定版リリース at nkjmkzk.net

    Oracle, Open Source, Private12/24にLinux kernel 2.6.28がリリースされました。このリリースの目玉としてExt4実装があります。Ext4はExt3と互換性を保ちながらも多くの改良がなされたものになっているようです。kernelnewbies.orgに記載されているNew featureを意訳してまとめてみました。 互換性 既存のExt3ファイルシステムはExt4にリフォーマットすることなく移行可能。具体的には該当ボリュームをReadOnlyでマウントしていくつかコマンド叩くだけでOK。 より大きなファイルシステムサイズ、ファイルサイズのサポート Ext3からExt4ではそれぞれの制限は以下の通り。 ファイルシステムサイズ:16TB -> 1EB (エクサバイト) ファイルサイズ:2TB -> 16TB ちなみにEBとは、 (1 EB = 10

  • COMSTARの設定 at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud ComputingSolaris 11 Expressから利用可能となったCOMSTARの使い方を解説します。 COMSTARはアクセス制御、ターゲットとLUのマッピングなど、非常に柔軟な設定が可能になっている反面、従来のiSCSI Target機構よりも登場するオブジェクトが多く少々複雑です。なのでCOMSTARを操るにあたってはまず登場オブジェクトの一覧とそれらの相関関係を理解しておくことが望ましいでしょう。 以下では最もシンプルな構成と応用的な構成の2つの例を挙げ、各オブジェクトの相関関係を図解しつつ設定方法を掲載しています。 最もシンプルな構成 接続先となるTargetを作成します。 [root@~]# itadm create-target -n iqn.2011-06.oracle

  • glusterfsで仮想化サーバの余っているローカルハードディスクを分散共有ストレージにする at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud Computing仮想化サーバが数台あると共有ストレージをつないで仮想マシンを全仮想化サーバで共有したくなります。 そうすることによって仮想マシンはリソースが空いていればどの仮想化サーバ上で起動させることができ、起動後もLive Migrationで別の仮想化サーバ上に移動させることさえできます。なのである程度の規模になると仮想化サーバ数台 + 共有ストレージという構成が一般的となります。 こうなってくると仮想化サーバのローカルハードディスクはほとんど使われません。サーバの故障率を下げるためにSANブートにしたりするとさらにローカルハードディスクは全く使わないことになります。それはそれですっきりしいると言えばそうなのですが、せっかくのローカルハードディスクが無駄になっている気もします。もし、共

  • EC2でOracleのバックアップサイトを構築しマルチサイト運用を実現する at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud Computing言わずもがな日に大きなインシデントがあり、ITシステムにもシステム構成に変化が起きようとしているのを感じます。マルチサイト運用の必要性です。 例えデータセンターであっても一カ所にデータ・システムを置いておくことへの危機感 地理的な事情によって停電・節電でシステムの継続運用が難しくなっている状況 長期的な影響が見込まれるなかで、サイトの移転を検討(移転先でも一カ所での運用は避けたい) システムをメインサイトからバックアップサイトへと軽やかに切り替えるような仕組みがあれば、と思います。しかし切り替えたいと思い立ってすぐに切り替えられるものではありません。物理的にどうやってもすぐには移せないのは大量のデータです。100TBのデータを夕方までにアメリカに移したい!と思っても時既に遅

  • Oracle ORIONでAmazon EBSの性能を測る at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud Computingストレージパフォーマンスを計測するには単純なddコマンドからiozoneといった複雑なベンチマークツールまで数多のツールが存在します。そん中、もしあなたが「DBのI/Oパターンに似た負荷で、でも扱えるような性能テストツールはないものだろうか?」と思い悩んでいたなら、Oracle ORIONをお勧めします。 Oracle ORIONは無償で使えるI/O性能測定ツールで、主要なOSで使用することができます。そしてOracle Databaseが行うようなI/Oパターンを簡単に発生させることができるのが特徴です。要はDatabaseをインストールしなくてもDatabase的なI/O負荷で性能測定ができるというツールです。ダウンロードはこちらから。 http://www.oracl

  • OCFS2はcache-coherentなクラスターファイルシステム。それってどういうこと? at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud ComputingOCFS2はcache-coherentなクラスターファイルシステムです。 これは結構すごい機構だと思うのですが、整理して理解するにはすこしばかり低レイヤの技術知識が必要になります。ということでまず一般的なI/Oの仕組みをおさらいした上で、cache-coherentではないNFSとcache-coherentなOCFS2を比較することによってcache-coherent何たるかを理解していきたいと思います。 とあるプロセスからI/O、つまりディスクへのデータ書き込みまたはディスクからのデータ読み込みを行うにはいくつかの経路があります。 一つはlibcのstdioを用いたbuffered I/Oで、fwrite()等がそれです。このライブラリを使ったI/Oではユーザ空間でキャ

  • asm at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud ComputingVirtualization, Operating System, Storage, Cloud Computing Automatic Storage Management(以後ASM)を用いてStorage GRID環境を構築する際、「どういう構成がいいのかな?」という問いにお答えする設計の勘所を紹介します。 サーバ機の選び方 CPU 特に指定なし。ただしStorage GRIDをデータベース用途でかつDWHに使用する場合は後述の1コアあたりが引き出せるI/O帯域について考慮しておく。 メモリ ASMが含まれるGrid Infrastructureのみをインストールする場合は最低1.5GByte。 Oracle Databaseもインストールする場合は最低2.5GByte

  • Storage at nkjmkzk.net

    Virtualization, Operating System, Storage, Cloud ComputingVirtualization, Operating System, Storage, Cloud Computing よく「仮想化ではストレージはどの接続形態がお薦めですか?」と質問を受けます。つまりはFC (Fibre Channel), iSCSI, NFSのうち、どれ?ということです。今回はNFSは置いといてFCとiSCSIについて考察してみます。 多くの場合争点となるのは以下のポイントだと思います。 性能 一般にFCの方が性能的に優れていると認識されています。これはFC DiskかSAS Diskかというディスクの違いもありますが、明らかに違うのはネットワークの帯域でしょう。iSCSIが利用するバックボーンはEthernetであり現在ほとんどのiSCSIネットワークは

  • nkjmkzk.net

    突然何の脈絡もないですが、func package controllerなるものを作成しました。 ダウンロードはこちらから:fpc-1.0.zip これはfunc (Fedora Unified Network Controller)というサーバ管理フレームワークを使っているシンプルなPythonスクリプトで、以下のようなことができます。 ・大量のサーバに一括してRPMをインストールする。 ・大量のサーバから一括してRPMをアンインストールする。 ・大量のサーバの任意、または全てのパッケージをアップデートする。 ・大量のサーバの内、任意のRPMがインストールされているサーバをしらべる。 ・大量のサーバの内、任意のRPMがインストールされていないサーバをしらべる。 つまりは大量のサーバのパッケージ管理がワンライナーでできますよ、というツールです。 インストール方法や使い方などは付属のREAD

  • サーバ仮想化環境でのお薦めストレージ構成 at nkjmkzk.net

    A Place to discuss Oracle VM, Linux and Other Great Software.サーバ仮想化環境では「リソースプール」という概念を実現するために共有ストレージ構成が多く採用されます。しかし、そもそも現在のCPU性能とDISK I/O性能を鑑みれば、そもそもDISK I/O性能はCPU性能の進化に追いついておらず、共有ストレージ構成とすれば追い打ちをかけるようにそこがボトルネックとなります。多くの環境ではサーバ仮想化環境では「共有ストレージ型前提。しかしこれまでの何倍ものI/O性能が必要」という要件に対応するため、ミドル〜ハイエンドのストレージ装置を採用するという選択を行っています。その結果初期導入費用が高価なのはもちろんですが、そのあとも莫大な保守費を支払うことになります。そして拡張できるものの、拡張するためのパーツがまた高価、というスパイラルに陥

  • 1