多数のクライアントがアクセスするような負荷の高いサービスや停止させられないサービスを運用する場合、複数のサーバーを使ってサービスの負荷分散や冗長化を行うのが一般的だ。本記事では、「Linux Virtual Server(LVS)」を使ってこのような構成を実現する方法について紹介する。 Linuxサーバーをロードバランサにする「Linux Virtual Server」(LVS) 最近では多数のCPUコアを持つサーバーが安価で利用できるようになり、サーバー1台の処理能力は飛躍的に向上している。しかし、リクエストの処理に多くのリソースを使用するようなサービスや、短時間に多数のリクエストを処理する必要があるサービスでは、1台のサーバーだけでは処理能力が不足する場合がある。このような場合、複数台のサーバーで同じサービスを運用し、ロードバランサを使ってリクエストを振り分けることで負荷の分散を図るこ
多数のクライアントがアクセスするような負荷の高いサービスや停止させられないサービスを運用する場合、複数のサーバーを使ってサービスの負荷分散や冗長化を行うのが一般的だ。本記事では、「Linux Virtual Server(LVS)」を使ってこのような構成を実現する方法について紹介する。 Linuxサーバーをロードバランサにする「Linux Virtual Server」(LVS) 最近では多数のCPUコアを持つサーバーが安価で利用できるようになり、サーバー1台の処理能力は飛躍的に向上している。しかし、リクエストの処理に多くのリソースを使用するようなサービスや、短時間に多数のリクエストを処理する必要があるサービスでは、1台のサーバーだけでは処理能力が不足する場合がある。このような場合、複数台のサーバーで同じサービスを運用し、ロードバランサを使ってリクエストを振り分けることで負荷の分散を図るこ
CentOS6.4および RHEL(Red Hat Enterprise Linux)6.4では、ifconfig eth0:?コマンドの実行や、/etc/sysconfig/network-scriptsディレクトリにifcfg-eth0:?ファイルを配置してIPエイリアスを設定する(NIC1枚に対して複数のIPアドレスを割り当てる)ことは非推奨となりました。 # man ifconfig NOTE This program is obsolete! For replacement check ip addr and ip link. For statistics use ip -s link. これにより、network-scriptsディレクトリ以下にifcfg-eth0:?のようなエイリアスごとの設定ファイルを用意する方法は使えなくなりました。(RHEL6.4で確認、CentOS6
DSASのロードバランサは高価なアプライアンス製品ではなく、LinuxのLVS (Linux Virtual Server)を利用しています。 安価、というか、ハードウエア以外は金銭的コストがゼロなので、一般のクライアントからのアクセスを受ける外部ロードバランサのほかに、内部サービス用のロードバランサも配置しています。それぞれactive, backupで2台ずつあるので合計で4台もロードバランサがあることになります。(こんな構成を製品を使って組んだら数千万円すっとびますね) また、ネットワークブートでディスクレスな構成にしているので、ハードディスが壊れてロードバランサがダウンした、なんてこともありません。 ですので「ロードバランサは高くてなかなか導入できない」という話を耳にする度にLVSをお勧めしているのですが、どうも、 なんか難しそう ちゃんと動くか不安 性能が出ないんじゃないか 等々
/etc/resolv.confのsearch指定って今まで何となく書いてたけど、やっは意味が分かった。というか初めてちゃんと調べた。 例えば、こんなネットワーク構成で、内向きのDNSが192.168.10.1に立ってる場合。 IPアドレス ホスト名 192.168.10.1 s1.example.com 192.168.10.2 s2.example.com search example.com nameserver 192.168.10.1とresolv.confに書いておくと、「s1」とか「s2」だけで名前解決が出来る。これだけなら、searchじゃなくてdomainで指定しても変わらない。 domain example.com nameserver 192.168.10.1でも全く同じ。man resolv.confすると、searchよりdomainの方が速いような記述があるから
はじめに アクセスが急増すると、応答時間が著しく悪化するサイトはありませんか? 普段は200ミリ秒以内で安定してアクセスをさばいているのに、イベントやらキャンペーンやらを開始した瞬間から、普段の2倍や3倍のアクセスが殺到し、その結果、レスポンスタイムが3秒とか9秒とかかかるようになってしまうことってありますよね。 あるサイトの実状 つい先日まで、そんなサイトが私の目の前にもありました。自社で運営している某ソーシャル系のサイトなんですが、イベント開始時刻と同時にアクセス数が急増するのです。とはいえ、所詮は普段の2倍とか3倍程度の数なのだから、少なくとも1秒以内にレスポンスを返せるくらいの性能は維持したいものです。 しかし実際は困ったことに、応答に3秒以上もかかってしまう処理が大量に発生してしまう状況に陥ってしまっていました。これはきっと、どこかにボトルネックがあるに違いありません。 仮説を立
Next: 目次 Network Administration Course 稚内北星学園短期大学 経営情報学科 TEL 0162-32-7511 FAX 0162-32-7500 E-mail: staff@wakhok.ac.jp 1998年 8月 5日 目次 1. UNIX ネットワークと管理者の役割 1.1 ネットワーク管理とシステム管理にあたって 1.2 システム管理者 = スーパー・ユーザー 1.3 スーパー・ユーザーの役割 1.4 スーパー・ユーザーになるには 1.5 スーパー・ユーザーの特権について 1.5.1 スーパー・ユーザーが使うコマンドと特権 1.5.2 スーパー・ユーザーが所有するファイル 1.6 ネットワーク管理者 1.7 本講座で学ぶ範囲 2. TCP/IP ネットワークとその管理 2.1 TCP/IPとは 2.2 TCP/IPの階層 2.2.1 物理層 2.
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く