タグ

ブックマーク / www.geek.sc (6)

  • Linuxサーバーでネットワーク速度計測ツール! iperf

    Linuxサーバーでネットワーク速度を計測する方法 linuxサーバーの場合、基的にクライアントからサーバーへの速度がどれくらい出ているのか、帯域制限は掛かっていないかなどは、コマンドベースで計測することになります。ただ、iperfという便利なツールがあって、これを使うと、簡単にクライアントからサーバーへの通信速度を計測することができます。負荷がかかってサーバーの応答が遅いのに、サーバーのリソースはスカスカ、などの状態の時に、ネットワークがボトルネックになっているかの判定にぜひご活用ください。 iperfの導入 iprefはクライアントとサーバーの両方にインストールすることになります。残念ながら、CentOSの標準のYUMレポジトリには入っていません。ただ、CentOS6(64bit)用のRPMを私のYUMレポジトリにおいておきましたので、ご自由にご活用ください。 http://www.

    Linuxサーバーでネットワーク速度計測ツール! iperf
  • Apache ZooKeeperのトランザクションログとスナップショットの運用と削除

    Zookeeperのトランザクションログの運用 Hadoopと組み合わせて使用されるZooKeeperは、タイミングが非常に重要な高可用性の分散協調システムです。NTPを設定してログの時刻ずれが無いように設定しておく必要があります。また、Zookeeperのトランザクションログとスナップショットは別のディスクドライブに保存することが望ましいとされています。ログが頻繁に書き込まれるため、I/O性能の良いSSDなどのフラッシュストレージに保存しておくことが望ましいです。これらはdataDirおよびDataLogDirプロパティによって設定が可能です。Zoopkeeperのトランザクションログが一定の設定値(デフォルト64MBまたは100,000回)以上に書き込まれると、znodeツリーのメモリダンプであるスナップショットが作成されます。スナップショットは基、それ以前のトランザクションログに代

    Apache ZooKeeperのトランザクションログとスナップショットの運用と削除
  • ガジェット

  • 職務経歴

    私の職務経歴 転職経験が多いため、全部書くと長くなるので、新しい順に主要なものだけ書きます。 職務経歴の概要 WEB企業で要件定義・詳細設計・コーディング、デザイン、マークアップ、ディレクション、マーケティング、ユーザーインターフェース設計、企画、経営戦略などを経験。 専門分野 ■コーディング PHP / Hack / Perl / Java / Objective-C / JavaScript / Ruby / Python / Go / Scala / C# / Bash / zsh / C Shell / Vim Script / CDML / HTML / XHTML / CSS / XML ■データベース MariaDB / MySQL / PostgreSQL / Amazon Aurora / Sybase / Oracle / HBase / SQL Server / Fi

    職務経歴
  • 齊藤貴義

    2012年自宅にて 東京都千代田区在住の33歳のシステムエンジニアです。 略歴: □1979年09月11日 福島県相馬市で誕生 (誕生日は9.11) (出身は福島県相馬市(赤い字の所)。3.11に地震・津波・放射能) □1995年04月01日 福島県立相馬高等学校・理数科に入学 ・日テレビ主催 第16回全国高等学校クイズ選手権の東北予選で優勝 全国大会出場 (日テレビ・高校生クイズ選手権の東北予選で優勝した記事) ・TBS 筑紫哲也のニュース23「ぼくたちの戦争」に出演 (「筑紫哲也のニュース23」で語る私) ・相馬高校では演劇部・出版局に所属(福島県新聞部連盟(県新連)) ・高校生雑誌創刊計画を創設。 ・パソコン通信の草の根BBS「いわき銀河計画」に参加 □1998年04月01日 大学に入学 雄弁会に所属 ・全関東学生雄弁連盟新人弁論大会 質問賞 ・東京大学主催新人ディベート大会

  • 大手サイトのrobots.txtでわかる「検索でヒットされたくないページ」の特徴

    robots.txtとは robots.txtは、検索エンジンのクローラー(bot)に、クロールされたいページや、クロールされたくないページを教えるテキストファイルのことです。多くの検索エンジンのクローラーは、そのドメインの最上位ディレクトリに設置されたrobotst.txtを最初に読み込んで、クロールするべきページとクロールするべきでないページを取得し、それに基づいて巡回します。ただ、一部のクローラーには、このrobots.txtを無視するものもあります。 robots.txtの書き方はおよそ以下の通りです。 User-agent:(ここにbotのユーザーエージェントを記述。ワイルドカード指定も可能) Crawl-Delay:(クロールの時間間隔を指定) Disallow:(クロールされたくないページやディレクトリを指定) Allow:(Disallowで指定されたディレクトリの小階層で

    大手サイトのrobots.txtでわかる「検索でヒットされたくないページ」の特徴
  • 1