タグ

drbdに関するhurvinekのブックマーク (4)

  • oss-d.net

    This domain may be for sale!

  • DRBD接続障害 - 技術メモ

    現象パターン1 突然次のような状態になってしまい、どうしても相手を認識しない # cat /proc/drbd version: 8.3.8 (api:88/proto:86-94) GIT-hash: d78846e52224fd00562f7c225bcc25b2d422321d build by mockbuild@builder10.centos.org, 2010-06-04 08:04:16 0: cs:StandAlone ro:Secondary/Unknown ds:UpToDate/DUnknown r---- ns:0 nr:0 dw:0 dr:0 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:b oos:12そんなとき、DRBD+Keepalived+iscsi 障害 復旧 - メモに従い [root@z151 ~]# drbdadm

    DRBD接続障害 - 技術メモ
  • drbd.conf

    ストレージには寿命があり、保存された情報は永遠に正常性を保証されるわけではありません。その為に別のストレージにデータをバックアップしたり、ストレージそのものを多重化してデータを保護することが重要です。今回紹介するは、ストレージデバイスを多重化し、データを複数のストレージに保存する仕組みで、DRBD(Distributed Replicated Block Device)と呼ばれているものです。同様の仕組みにソフトウェア/ハードウェアRAIDがあります。 DRBD(Distributed Replicated Block Device)とは、TCP/IPネットワークを通じて複数のサーバのストレージ(パーティション)をリアルタイムにミラーリング(複製)するソフトウェアです。RAID1のようなミラーディスクを構築することができます。ソフトウェア/ハードウェアRAIDは同じサーバ内のストレージを使

  • 2008-07-13 - ふたつの川うるおう日記

    DRBDとクラスタファイルシステムのテストで手詰まり中で書いたDRBD (Primary/Primary)で構成した2ノードのうち、1ノード落とすともう1ノードでGFS2領域にアクセスできなくなるのは、コメントにあるRAさんの情報をもとにQuorumをよく調べることで解決しました。 Red Hat Cluster Suite(GFS/GFS2はこの一部)では、Quorumを次の式で決定し、この数字より小さいノード数になるとサービスが停止する作りになっています。 Quorum = 稼働していたノード台数 / 2 + 1 具体的な数字を書くと次のとおり。 6台構成: 6/2+1 = 4台以上稼働し続けていればOK、3台以下になったらアウト 3台構成: 3/2+1 = 2台以上稼働し続けていればOK、1台以下になったらアウト ここで今回やっていたDRBDの場合、2台構成なので次のようになります。

  • 1