筆者の環境では、ルーター, F/W のパフォーマンス管理のために、Gangliaを使用しているのだが、DMZ側から直接管理PCに通信させたくなかったため、参考リンクの構成に従って、Gangliaをカスケード接続してみた。この構成だと管理PCからDMZ側に能動的に取りにいく方式になるため、DMZ側から内部に向けてF/Wを開放する必要がなくなる。<<参考リンク>> http://www.ibm.com/developerworks/wikis/display/WikiPtype/ganglia カスケード接続を行うためには、DMZ側にgmetadを置くノードが1台必要になる。 まず、F/Wを閉じることになるので、DMZ内のクライアントは全てDMZ内のgmetadサーバーにデータを送るように構成する。また、ネットワークごとにclusterを分割するため、clusterに適切な値を記入する。このた
最近忙しくてなかなかアップできずにいたこのブログですが、久しぶりの更新。MySQL Clusterのバックアップ・リカバリ運用やオープンソースシステム構築など、色々アップしたいネタがたまっているものの、今日は直近でよく使う性能管理系のネタについて書いていきます。(前者のネタ更新をお待ちいただいている方、リクエストも頂いておりますがすみませんorz)。さて、今回は性能管理データを「とにかく簡単に」自動でグラフ化するツールとして、Muninを紹介します。 Muninの特徴 まず製品名ですが、muninと書いて「ムーニン」と読むようです。CPUやメモリ、ネットワークトラフィック、ミドルウェアの性能状況などが取得できます。RPMForgeのリポジトリからyumでインストールでき、導入・設定が非常に簡単。細かな制御ができない部分もありますが、「できるだけ簡単に、ライトに性能グラフを書きたい」「リモー
Linuxサーバーのリソース監視ツールで あるnrpeをインストールする。 Nagiosにおけるサーバーのリソース監視は、プラグインにより 行うが、標準ではNagiosをインストールしているホスト自身のものはできるがリモートのホストのリソースについては不可能である。 これを改善するツールがnrpeであり、Nagiosのプラグイン による監視をネットワークを使って吸い上げる構造になっている。 (1)コンパイル 最新バージョンであるnrpe-2.0.tar.gz で試してみたが、 CHECK_NRPE: Error - Could not complete SSL handshake なるエラーが出てデータの取得が出来ない。 (原因は定かではないが、別のPCでopenssl−develをインストール した後コンパイルして見たところ難なく動作した。) そこ
SEO:バックリンクをチェックする方法 新年度企画。検索エンジンで自分のサイトや競合サイトのバックリンク(被リンク)を調査する方法の基本。 公開日時:2010年04月01日 00:10 バックリンクをチェックする 検索エンジンは、ウェブページの重要性や人気度、信頼度を決定するために、ページの内部要因(構造分析によるキーワードの重要度や関連性、キーワードの出現位置、頻度、回数、その他のキーワード含めたコンテンツ分析など)と、ページ外要因(ページに張られたリンクの分析。リンクの数、質、信頼性、サイト全体におけるリンクの多様性(ばらつき)、時間、年齢など)を中心とした多数の項目から総合的に判断する。最近はパーソナライズ検索のように検索ユーザの行動履歴や嗜好性など、要素が複雑に絡み合うわけだが、とりわけSEO担当者が頻繁に行う機会が多いのは「リンク分析」だ。 リンク分析は、SEOの戦略方針を決定す
これを書こうと思ったキッカケは、奥一穂さんの「ウェブアプリケーションサーバを複数台構成とか2010年代には流行らない」っていう、最近モヤモヤと感じていたことをうまく説明してくれてる記事をみたこと。 年始からちょくちょくサーバの運用環境を物色しながら考えていたことと見事にシンクロした。だいたいの要旨はTwitterのほうでも書いたのだけれど。 ムーアの法則でどんどん向上する技術にくらべ、人間のキャパシティは変化しない定数項として考えていい。だとすれば、そうやって向上する性能を、人間の労力を削減する方向で使えてはじめて、「技術が競争優位性を生む」といえるだけの破壊的な価値がでてくるということになる。 では、現在の技術トレンドを活用することで減らせる「人間の労力」とは何か。 それは、過去10年あまりで定着した、これまでの(そして今なお)Webアプリケーションの定番構成である、「ロードバランサ、ア
アクセス解析ツールを導入して数カ月。いまいち使いこなせていないあなたへ。私が初めてサイトを分析する時に行う12のSTEPを紹介いたします。GoogleAnalyticsで全て対応出来るレポートです。ここで紹介するのはアクセス解析業界(?)における標準でもなんでもなく、私なりの分析手法ですので、他にも様々な方法やバリエーションがあります。 ※アクセス解析用語の基本的な知識と、GoogleAnalyticsを使ったことがある(出来ればアドバンスドセグメントを使ったことがある)人向けの方法になります。 2つの事前準備 分析に入る前に、以下の二つの事前準備を行いましょう。 A.サイト全体をじっくり見る サイトマップや主要の導線をたどってみたり、実際にコンバージョンしてみたり。自分なりにサイトの良いところと悪いところを見つけて箇条書きにしておきましょう。また、それが数字にどう反映されるか?を想像して
ユーザー数が全世界合計で3億人を突破した、と9月15日に発表したばかりのFacebook。Webサイトの利用者数は、グーグル、ヤフー!に次ぐ規模だといわれています。 同社のエンジニアDonn Lee氏が、そのFacebookのデータセンターとネットワーク構成の内容を、Ethernet Allianceのイベントで紹介していました。EETimesが公開しているプレゼンテーションのビデオから、3つほど興味深いシーンを紹介しましょう。 まずは同社のデータセンターで稼働している典型的なサーバラックの様子。クアッドコアをマザーボード上に複数搭載した強力な1Uのサーバが、ラック上部でアグリゲーションされている、と説明されています。 データセンターのこの巨大さはどうでしょう。奥の方までずっとラックが続いています。これは標準サイズのデータセンターとのこと、そして写真中央にあるように、移動にはしばしば自転車
Firefoxのアドオンやよく言われる 海外のSEOエキスパートみたいな 方々の作成したSEOツールも凄いけど 結局僕が一番使いやすくて高機能 だと思ったSEOツールは国産の SEOチェキ!でしたので機能をご紹介。 使い方次第なのかもしれませんが、結局一番使うのはSEOチェキなので紹介します。アライグマかレッサーパンダか未だにその正体を教えてくれない友達のロプロスさんの作ったツールですが、贔屓なしに現時点で最高のSEOツールです。 ※書いてある順番は適当です。書かないと分からないようなので追記しました。 Ajaxで動くのでとにかく軽快国産なので開発者と連絡が取れる無料で広告も無い調査できる必要項目がほぼ全て揃ってるやたら見やすいといった感じで重宝しています。とにかく動作の軽快さ。これが大きいです。SEOツールなのに動作が重いってユーザビリティ的にどうなの?って気がしますのでいくら高機能でも
We’ve made the very difficult decision to cancel all future O’Reilly in-person conferences. Instead, we’ll continue to invest in and grow O’Reilly online learning, supporting the 5,000 companies and 2.5 million people who count on our experts to help them stay ahead in all facets of business and technology. Come join them and learn what they already know. Become an O’Reilly online learning member
NECから「IDと人事DBの整合性をチェックするミドルウェア」というのが発売されるようだ。実際こういうミドルウェアのニーズは高まっていると思う。実際に先日にはマイクロソフトの類似ツールの紹介記事も出ていた。 情報共有系のインフラについてのコンサルティングに携わっていると顧客からグループウェアでのユーザ毎のアクセス権管理であるとかイントラネットの社内ホームページ上の各コンテンツの閲覧制限などを行いたいというニーズを良く聞く。ところがそういう顧客のうち半分くらいは「実は社内のユーザマスターがいくつあるかわからないのです」とか「ユーザマスター間の整合性の確認は取れません」なんて状態だ。中には「グループウェアにいくつIDが登録されているかわかりませんし誰がいるかもわかりません」なんて信じられないほど酷い話も聞く。IDまでは管理できていてもIDをロール(役割)単位にきちんとまとめて整理している中小企
データセンターなどで準備されている19インチ・ラックは,全高1800mm~2000mmのモデルが一般的だ。ユニット・サイズで言うと35Uから45Uまでが収納可能である。1Uサーバーの高さは44.45mmなので40台まではマウントできるが,ラックのユニット・サイズのギリギリにマウントすると,メンテナンスが困難になるため,スペースの余裕を考慮して30~35台を搭載するのが一般的だろう。 しかし,消費電力を考慮しないでこの数のサーバーを積み上げていくと,後で面倒なことが起こる。システムの寿命が短くなったり,運用性,メンテナンス性の低下したりするのである。 現在,流通している2GHz前後のデュアルコア・チップを搭載した1Uサーバーの最大消費電力量は約200W~220W程度。実効値を70%として電圧100Vで稼働させるとすると1台当たり3A(200~220W/70V)の電力量が必要となる。これを1ラ
Google、重複コンテンツ(コピペサイト)の対処方法について解説 グーグル、重複コンテンツの問題とその対処法について改めて解説。基本的にアルゴリズムでオリジナルサイトを自動判定するため、多くのウェブマスターは特別この問題に配慮する必要はない。 公開日時:2008年06月16日 13:10 米Googleは2008年6月9日、近年SEOの領域で話題として取り上げられる機会が多い、重複コンテンツ(duplicate content)問題についてのGoogleの取組みと解決方法について説明した。公式ブログ(Official Google Webmaster Central Blog)にて、検索品質担当チーム・Sven Naumann氏が解説した。 私は本ブログほかいくつかのコラムで何度も重複コンテンツの問題を取り上げているし、また、この問題と対処方法については米国で開催される各種コンファレンス
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く