タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

drbdに関するizariuo440のブックマーク (7)

  • drbdを復旧(再同期)させるメモ - うまいぼうぶろぐ

    ※ 整理した情報ではなく、ad hocに試したことをメモ書き。なので結構怪しいです。 version: 0.7.25 (api:79/proto:74) slave側が落ちて、heartbeat、drbdを再起動してもstatusが戻らない状態からの復旧メモ。以下"all"となっているresourceは各自の環境ごとにr0,drbd0 などに読み替える。resourceが1つならallでもいいけど。 とりあえずやってみる slave側で。 ## status再確認 cat /proc/drbdでもいい drbdadm state all drbdadm cstate all ## drbd 切断/接続 drbdadm down all drbdadm up all ## status再確認 drbdadm state all drbdadm cstate all cstateがConnec

    drbdを復旧(再同期)させるメモ - うまいぼうぶろぐ
  • DRBDとHeartbeat2でMySQLをHA対応にしてみる: 1/4 - DRBDのインストールと設定 - - メモ帳

    2007/12に書いたものが埋もれていたので整理。 DRBDのインストール方法は、いくつかある。 1. drbd.orgからソースをダウンロードしてビルド、インストール 2. LINBIT社提供のRPMを利用する(有償) 3. MySQL Enterpriseのオプションを購入して、LINBIT社提供のRPMを利用する(有料) 4. CentOSのyumを利用する。(CentOS4.5ではVer.0.7.23のみdrbd体とkernel module共に用意されているが、CentOS5ではVer.8.0.3のdrbd体のみでkernel moduleは提供されていない。 ) 5. SUSE Linux(SUSE Linux Professional 9.3以降、SUSE Linux Enterprise Server 9以降)では標準パッケージとして提供されている(らしい) 今回は「L

  • 負荷分散システム上でのハードディスクデータの同期をDRBDで実現する

    はじめに 前回は、heartbeatに付属しているldirectordを使ってgatewaying型の負荷分散システムを構築するための方法について解説しました。あまりコンテンツが更新されないようなWWWサーバなど場合には、このような負荷分散の仕組みを使って、比較的簡単にシステムを冗長化することができます。しかし、メールサーバやデーターベースサーバのように、ハードディスクに記録されているデータが頻繁に更新され、そのデータがなければサービスが行えないようなサービスでは、データの共有についても考慮する必要があります。 今回は、DRBDによるハードディスクのデータ共有の設定について解説します。 DRBDの概要 DRBDは、ネットワークを経由してハードディスクのリアルタイムミラーリングを行うためのソフトウェアで、カーネルモジュールと管理用ソフトウェアのセットで利用します。DRBDは、Linbit社が

    負荷分散システム上でのハードディスクデータの同期をDRBDで実現する
  • Xen DomU上でDRBDを使う・その6・ベンチマーク

    RHEL/CentOS、Xenを中心にメモを残していきます。内容は無保証。適用する場合は、十分確認の上、自己責任で。 指摘、質問、要望をコメントしてもらえると喜びます。 DRBDデバイス/dev/drbd0に直接書込み、速度を測定する。[root@dc2 ~]# dd bs=64M if=/dev/zero of=/dev/drbd0 dd: writing `/dev/drbd0': No space left on device 64+0 records in 63+0 records out 4294799360 bytes (4.3 GB) copied, 227.723 seconds, 18.9 MB/s [root@dc2 ~]#このとき、もう一方のノードdc3の/var/log/messagesには、次のようなメッセージが記録される。この原因は不明。Jul 24 22:32

  • DRBD - man page of drbd.conf #5 [対訳] : wanatabe's Weblog

    always-asbp Normally the automatic after-split-brain policies are only used if current states of the UUIDs do not indicate the presence of a third node. 通常、UUID の現在の状態が 3 番目のノードの存在を示さないときだけ、自動的な after-split-brain のポリシーが使われる。 With this option you request that the automatic after-split-brain policies are used as long as the data sets of the nodes are somehow related. This might cause a full sync,

  • DRBD:What is DRBD

    Reliable, high-performing, highly available enterprise storage

    DRBD:What is DRBD
  • DRBD on CentOS 5 : wanatabe's Weblog

    DRBD のインストールと手動での migration までを試してみました。 ※今回は VMWare Server 上の CentOS 5 で行いました。 ※コマンドプロンプトにホスト名が無い場合は2つのホスト両方で実行しています。 ※ホスト特定の作業には、toire# や ohuro# という風に明示しています。 環境 OSホストIPアドレスDRBDデバイス名物理デバイス名メタデータ領域ポート CentOS 5toire192.168.159.128/dev/drbd0/dev/sdb1internal(/dev/sdb1)7788 CentOS 5ohuro192.168.159.129/dev/drbd0/dev/sdb1internal(/dev/sdb1)7788 準備 DRBD でマウントするための専用のディスクを追加しておきます。 VMWare Server 上で

  • 1