タグ

drbdに関するakishin999のブックマーク (18)

  • DRBDを用いたHA構成のChef Serverクラスタの構築 #getchef - クリエーションライン株式会社

    以前、ec-metalでEnterprise Chef HAクラスタを構築しました。稿ではHigh Availability: DRBDを参考に、順を追って手動でDRBDを用いたHA構成のChef Serverクラスタを構築してみます。 ■前提 環境 環境: QEMU+KVM仮想環境 パブリックネットワーク: 192.168.122.0/24 プライベートネットワーク: 192.168.100.0/24 フロントエンド: 1台 バックエンド: 2台 ロードバランサ: フロントエンド1台のため不要 名前解決: 全マシンの/etc/hostsに記載 (参考:Hostnames) ファイアウォール: テストのため全解放 (参考:Firewalls) フロントエンド IPアドレス: 192.168.122.101 ホスト名: fe1.example.jp OS: RHEL6.5 メモリ: 4GB

    DRBDを用いたHA構成のChef Serverクラスタの構築 #getchef - クリエーションライン株式会社
  • データセンター移転とDRBD - Cybozu Inside Out | サイボウズエンジニアのブログ

    @ymmt2005 こと山泰宇です。今回は去る 5 月から 6 月にかけて行った、cybozu.com のデータセンター移転作業について、失敗してしまったことを中心に解説します。 失敗と書いたのは、移転作業中に何度か、一部のお客様環境でストレージ高負荷による障害を起こしてしまったためです。移転作業自体はスケジュール通り進行し、6 月第二週に完了しています。障害に関しては、こちら(PDF)でお詫びとご報告をしていますが、この記事では技術面ならびに障害を引き起こすにいたった背景について詳述します。 移転に至った背景 移転方式の検討 ストレージ同期の方法 DRBD による同期の詳細 まずは自社環境を移転、成功 そして障害は発生した なぜ障害につながったのか まとめ 移転に至った背景 まず、なぜデータセンターを移転することにしたかを説明します。 端的に言うと、当時のデータセンターが手狭になり拡張

    データセンター移転とDRBD - Cybozu Inside Out | サイボウズエンジニアのブログ
  • Linux-HA Japan

    Linux上で高可用(HA)クラスタシステムを構築するための 部品として、オープンソースの、クラスタリソースマネージャ、ク ラスタ通信レイヤ、ブロックデバイス複製、その他、さまざまなアプリケーションに対応するための数多くのリソースエージェント等を、日国内向けに維持管理、支援等を行っているプロジェクトです。 今は主に Pacemaker , Heartbeat , Corosync , DRBD等を扱ってます。

  • DRBD の failover と iSCSI Enterprise Target の起動タイミング - 酒日記 はてな支店

    drbdadm primary コマンドを実行したあと、自分がちゃんと Primary になったのを確認してから iscsi-target を起動しよう、という話。 1ヶ月ほど前から DRBD + Keepalived + iSCSI target を VMware ESXi から使うメモ - 酒日記 はてな支店 で検証した構成を元に、実マシンで iSCSI target を作って ESXi から使用中。 # 15台ほどの VM を乗っけて試験運用 DRBD の failover を起こす際に、以下のようなスクリプトを実行しているのだけど #!/bin/sh # backup -> master になるときに実行 drbdadm primary all service iscsi-target start #!/bin/sh # master -> backup になるときに実行 serv

    DRBD の failover と iSCSI Enterprise Target の起動タイミング - 酒日記 はてな支店
  • DRBDとHeartbeat2でMySQLをHA対応にしてみる: 3/4 - MySQLのインストール - - hirohama.mysql

    MySQL Enterprise BinaryのRedHat 4.4向けEM64T対応のサーバとクライアントを RPMからインストール データディレクトリをDRBD管理配下へ basedir=/mnt/drbd/mysql DRBD構成用my.cnf #BEGIN CONFIG INFO #DESCR: h1 for DRBD Eval. by hirohama #END CONFIG INFO ########################################### # GENERIC configuration options ########################################### [client] # Connection port = 3306 [mysqld] server-id=11 datadir=/mnt/drb

  • DRBDとHeartbeat2でMySQLをHA対応にしてみる: 2/4 - DRBDの稼働テスト - - hirohama.mysql

    同期が完了したらファイルシステムを作成して、マウントする。(プライマリノード) mke2fs -jまたはmkfs.ext3を利用する。 [root@h1 ~]# mke2fs -j /dev/drbd0 mke2fs 1.35 (28-Feb-2004) Filesystem label= OS type: Linux Block size=4096 (log=2) Fragment size=4096 (log=2) 8896512 inodes, 17789979 blocks 889498 blocks (5.00%) reserved for the super user First data block=0 Maximum filesystem blocks=4294967296 543 block groups 32768 blocks per group, 32768 fra

  • DRBDとHeartbeat2でMySQLをHA対応にしてみる: 1/4 - DRBDのインストールと設定 - - hirohama.mysql

    2007/12に書いたものが埋もれていたので整理。 DRBDのインストール方法は、いくつかある。 1. drbd.orgからソースをダウンロードしてビルド、インストール 2. LINBIT社提供のRPMを利用する(有償) 3. MySQL Enterpriseのオプションを購入して、LINBIT社提供のRPMを利用する(有料) 4. CentOSのyumを利用する。(CentOS4.5ではVer.0.7.23のみdrbd体とkernel module共に用意されているが、CentOS5ではVer.8.0.3のdrbd体のみでkernel moduleは提供されていない。 ) 5. SUSE Linux(SUSE Linux Professional 9.3以降、SUSE Linux Enterprise Server 9以降)では標準パッケージとして提供されている(らしい)

  • heartbeatとDRBDとPostgreSQLでデータベースのクラスタを構築する

    EnterpriseZine(エンタープライズジン)編集部では、情報システム担当、セキュリティ担当の方々向けに、EnterpriseZine Day、Security Online Day、DataTechという、3つのイベントを開催しております。それぞれ編集部独自の切り口で、業界トレンドや最新事例を網羅。最新の動向を知ることができる場として、好評を得ています。

    heartbeatとDRBDとPostgreSQLでデータベースのクラスタを構築する
  • [ThinkIT] 第7回:共有ファイルシステム「LKDR」と「DRBD ARK」 (1/4)

    これまでLifeKeeperのLinux版とWindows版のそれぞれについて、インストールと基的な設定方法を解説した。今回はLinux版に話を戻し、より応用的なリソースの使い方ついて解説する。 HAクラスタを構成して何らかのアプリケーションを保護する場合に、サービスを提供するための仮想IPアドレスとアプリケーションで使用する共有ファイルシステムを組み合わせて使用することが多い。 LifeKeeperでは仮想IPアドレスを「IPリソース」、共有ファイルシステムを「ファイルシステムリソース」として設定し、アプリケーションリソースとの依存関係を作成することにより、仮想IPアドレスと共有ファイルシステムを組み合わせて使用することができる(注1)。

  • HA/DRBD - PukiWiki

    なにができる? ネットワークに接続されたノード間でのRAID1ミラーリングのような機能 HAクラスタを実現する際にネットワーク越しで同じデータを持つ共有ディスクとして使用できる。 書き込みは1時点では片方のデバイスにのみ書き込み可能とするとこで排他制御をしている 各ノードのデバイス(/dev/drbd?で表されるパーティション)は、プライマリあるいはセカンダリという状態になります。 プライマリデバイスのあるノード上でアプリケーションは動作する。 すべての書き込みはローカルの「さらにローレベルなブロックデバイス」に送られ、セカンダリ状態のデバイスのあるノードに送られます。セカンダリデバイスは単にデータを自身のローレベルのブロックデバイスに書き込みます。 読み取りは常にローカルで実行されます。 プライマリノードが停止した場合、heartbeatなどを使用してセカンダリデバイスをプライマリ状態に

  • LVM2 on DRBD が一筋縄でいかなかった - daily dayflower

    DRBD のディスク上に LVM を構築しようとしたらちとはまりました。うーん困った,とおもってググったら,解決してる先達がいらっしゃいました→DRBD-8.0.X + LVM2 - end_of_scriptの日記。 元記事では生ディスク /dev/sda3 の上に DRBD を構築して(さらにその上に LVM を構築して)いらっしゃいますが,わたしは LVM 上の LV たる lv_mirror の上に DRBD を構築した(さらにその上に LVM を構築)という点が違います。が,問題となったポイントは同じです。step by step で何がおきて,どう解決したかを書いておきます。 問題発生 まずは現状の PV の状況とか。 # pvdisplay -C PV VG Fmt Attr PSize PFree /dev/sdb1 vg_mirror lvm2 a- 931.51G 41

    LVM2 on DRBD が一筋縄でいかなかった - daily dayflower
  • ウノウラボ Unoh Labs: DRBDによるコンテンツの相互バックアップ

    こんにちは satoです。 DRBDは誤解を恐れないで、簡単に言ってしまうと、ネットワーク越しにRAID1を構築できるオープンソースのソフトウェアです。 DRBDには以下の特徴があります。 ・カーネルモジュールで動作し、有償でサポートが受けられます ・電源等が壊れても、ソフトウェアRAIDやPICカード型のRAIDと違ってサービスを続けることができます ・heartbeat等と組み合わせて、HAなシステムを構築できます ・secondary(slave、待機系)はマウントすることができません。 DRBDの設定から使用までを簡単に解説しようと思います。また待機系が必要なのですが、待機だけではもったいないので、相互に違う領域をバックアップ(s1のsda3のバックアップ先は s2のsda3、s2のsda4のバックアップ先はs1のsda4)をしてみました。 構成 s1.unoh.n

  • DRBD+Heartbeat+NFS

    まず、DRBDとHeartbeatの構築をしておきます。こちらは省略します。 続いて、Heartbeatの /etc/ha.d/haresoureces の設定を行ないます。 # vim /etc/ha.d/haresources testserver1 drbddisk::drbd0 Filesystem::/dev/drbd0::/var/drbd::ext3 IPaddr::192.168.99.3/24/eth0 こちらの設定で DRBD の復帰と、 /dev/drbd0 を /var/drbd へのマウント、仮想IPの割りあてが行なえます。もちろん、testserver1とtestserver2で /var/drbd を作成しておく必要があります。 # mkdir /var/drbd この段階で一度 heartbeat のテストをします。testserver1でheartbeat

  • drbd.conf

    ストレージには寿命があり、保存された情報は永遠に正常性を保証されるわけではありません。その為に別のストレージにデータをバックアップしたり、ストレージそのものを多重化してデータを保護することが重要です。今回紹介するは、ストレージデバイスを多重化し、データを複数のストレージに保存する仕組みで、DRBD(Distributed Replicated Block Device)と呼ばれているものです。同様の仕組みにソフトウェア/ハードウェアRAIDがあります。 DRBD(Distributed Replicated Block Device)とは、TCP/IPネットワークを通じて複数のサーバのストレージ(パーティション)をリアルタイムにミラーリング(複製)するソフトウェアです。RAID1のようなミラーディスクを構築することができます。ソフトウェア/ハードウェアRAIDは同じサーバ内のストレージを使

  • Heartbeatでかんたんクラスタリング(4):ミラーリングツール「DRBD」によるデータ保護 (1/3) - @IT

    1つの例として「SAN」(Storage Area Network)があります。データを格納するストレージ自体が冗長化されている製品も多いですし、サーバをSANに接続するためのHBA(Host Bus Adapter)を二重化することも可能ですが、コストもかさみます。 現在ならば、SCSIブロックをIP化してしまう「iSCSI」も選択肢として挙げられるでしょう。ですが最近までiSCSIは、「iSCSi接続を確立するためのイニシエータが不安定だ」などといわれることもありました。また、データを共有する「NFS」(Network File System)を用いてほかのサーバにデータを保存することもできます。しかし外部にデータを置くとなると、どうしても、その分コストも高くなってしまいます。 最もコストを抑える方法を考えた場合に浮上してくる選択肢がDRBDです。Heartbeatによるサービスの冗長

    Heartbeatでかんたんクラスタリング(4):ミラーリングツール「DRBD」によるデータ保護 (1/3) - @IT
  • VMwareでDRBDをテスト

    カーネルも更新された場合は再起動します。 2.検証用ハードディスクの作成 今回は、qemu、VMX Editor、VMware Playerを使って環境を作りました。 VMX Editorまたはqemuコマンドで新たにハードディスクを2つ作り、各VMware Player用設定ファイルを変更します。 最初、ディスク容量を100MBで作ったら動かず、1GBで作り直しました。 0.7系ではdrbdのメタデータ領域として、128MB必要です。 次に設定ファイルを変更します。 自分の設定ファイル vm01.vmx #worte by vmx-editor .encoding = "Shift_JIS" config.version = "8" virtualHW.version = "4" numvcpus = "1" nvram = "nvram" memsize = "300" display

    VMwareでDRBDをテスト
  • DRBD+Heartbeatでお手軽HA Cluster VA Linux Systems Japan

    サーバを運用する際の問題の一つとして故障時の対応があります。高価なシステムを構築すればストレージはSANで構築し、サービスのフェイルオーバーも高価な商用ソフトを導入することで実現することは可能です。しかしながら、「そこまでコストをかけて構築しなくても、、、」といった場合もあるかと思います。そのような場合の解決策の一つとして、編ではDRBD + Heartbeatというオープンソース・ソフトウェアを用いて、HA Clusterを構築する方法を解説します。以下、<host_m>と<host_s>という2台のサーバを用いた構成手順を紹介します。 DRBDとは、Distributed Replicated Block Deviceの略で、家WEBサイトは http://www.drbd.org/ になります。具体的にDRBDは何をするものか?というと、パーティション

  • DRBD + Keepalived + iSCSI target を VMware ESXi から使うメモ - 酒日記 はてな支店

    単なるメモです。 ホストを 2台用意して DRBD でミラーリング iSCSI Enterprise Target で iSCSI target にする Keepalived VRRP で VIP を振って Master/Backup 構成で failover 可能に VMware ESXi からその iSCSI target 上に仮想マシンを構築 failover しても仮想マシンが止まらない という構成ができた。OS は CentOS-5.2。 仮想マシンで make などをして、IO がガリガリ起きている状態で failover (マスターになっているマシンの電源断とか) しても、仮想マシン側では IO が数秒待たされるだけで特にエラーなどは起きず。結構気持ちいいなこれ。 ただし、DRBD のプロトコルが A or C だと大丈夫だが、B だと仮想マシン側で IO error が大量

    DRBD + Keepalived + iSCSI target を VMware ESXi から使うメモ - 酒日記 はてな支店
  • 1