タグ

opsとtoolに関するnobyukiのブックマーク (38)

  • Chefに挫折したあなたへ。Fabricのすすめ

    サーバ設定作業は面倒で間違いを犯しやすいため、Chef/Puppetなどのツールで自動化したいと考えている方は多いと思います。 私もそのような理由からChef(-solo)を習得しようと試行錯誤していました。 その結果、ある程度は動くようになったものの次のような問題があると思いました。 学習に時間がかかる 私は正直、今でもどのファイルに何を書くのかよく分かってないです。 幾分か簡単だと言われるchef-soloでも公式サイトのドキュメントだけではよく理解出来ませんでした。 また、バージョンによる差異なのか目的が異なるのか分かりませんが、ブログ記事を参考にしようとすると十人十色でどれが私に合った手順なのかわかりませんでした。 例え最終的に理解できたとしても、私やあなたが何日もかけて理解できないことはチームのメンバーも理解するのは難しいと思います。 対象サーバにインストールする必要がある Ch

    nobyuki
    nobyuki 2013/03/12
    Fabric
  • Chefをベースにした日本製の運用自動化ツール「Cloudrop」、エクシードから

    データセンターへ投入したサーバの構成やアプリケーションのデプロイツールとしてよく知られているのが「Chef」や「Puppet」といったオープンソースの運用自動化ツールです。特にChefは先日Facebookが採用したことが発表されています。 そのChefをベースにした運用自動化ツール「Cloudrop」がエクシードから発表されました。同社はシステム構築や運用サービスに加え、パブリッククラウドの「Libra」などを提供する日の企業で、Cloudropはそうした同社の経験を踏まえて作られたもの。 運用自動化ツールは、開発と運用が協力してビジネスゴールを目指す「DevOps」ムーブメントの中で、システムの開発運用を迅速に改善するうえで欠かせないツールとして注目されています。 運用の属人性を排除して自動化、効率化 CloudropはChefをベースにしているため、Chefでの手順書に当たるレシピ

    Chefをベースにした日本製の運用自動化ツール「Cloudrop」、エクシードから
  • D.3. Unix/Linux システムからの Debian GNU/Linux のインストール

    この節は、マニュアルの他の部分で説明されているメニュードリブンインストーラを使用せずに、既存の Unix・Linux システムから Debian GNU/Linux をインストールする方法について説明します。この 「クロスインストール」 HOWTO は、Red Hat, Mandriva, SUSE から Debian GNU/Linux に移行するユーザの要望で書かれました。節では、*nix コマンドの入力について熟知し、ファイルシステムを操作できるのが前提となっています。節では、#が Debian chroot に入力されたコマンドを示し、$ はユーザの現在のシステムに入力されるコマンドを表します。 一旦、新しい Debian システムを好みに設定したら、既存のユーザデータを (あるなら) 稼働したまま移行できます。したがって、これは 「ダウンタイム無し」での Debian GNU

  • fluent-plugin-dstatの紹介

    ウィークリーFluentdユースケースに参加して、fluent-plugin-dstatの紹介記事を書きたいと思います。 dstatはnetstatやiostatなどをまとめたようなツールで、こんな感じで同じタイムフレームでのマシンのリソース情報がとれます。 どんなオプションがあるかについては公式を見てください。 yumとかで入れると古いバージョンが入ったりしますが、最新版は7.2で、使えるプラグインが増えてたりします。 主に top-xxx-adv 系が増えています。 どういうものかというと、例えば古いバージョンでもある top-cpu はこのようにCPU利用率の高いプロセスを表示してくれますが、 top-cpu-advだとさらに細かい情報がとれるのと、ちゃんとプロセス名、利用率など項目がわかれているので、fluentのプラグインとしてjsonの形式にしやすいのです。 dst

  • Nmap リファレンスガイド (Man Page)

    このドキュメントでは、Nmapバージョン4.50について説明しています。最新のドキュメントは、英語でhttps://nmap.org/book/man.htmlから入手できます。 Nmap (「Network Mapper」)は、ネットワーク調査およびセキュリティ監査を行うためのオープンソースのツールである。大規模ネットワークを高速でスキャンするように設計されているが、単一のホストに対してもまったく問題なく機能する。Nmapは生の(raw)IPパケットを用いて、ネットワーク上でどのようなホストか利用可能になっているか、これらのホストが提供しているサービス(アプリケーション名とバージョン)は何か、ホストが実行しているOS(OS名とバージョン)は何か、どのような種類のパケットフィルタ/ファイアウォールが使用されているかなど、その他数多くの特徴を斬新な方法で判別する。Nmapは、セキュリティ監査

  • dmidecode

    Dmidecode reports information about your system's hardware as described in your system BIOS according to the SMBIOS/DMI standard (see a sample output). This information typically includes system manufacturer, model name, serial number, BIOS version, asset tag as well as a lot of other details of varying level of interest and reliability depending on the manufacturer. This will often include usage

  • Ddrescue - GNU Project - Free Software Foundation (FSF)

    Ddrescue - Data recovery tool [ English | Español | Français | Italiano | Russkii ] Introduction GNU ddrescue is a data recovery tool. It copies data from one file or block device (hard disc, cdrom, etc) to another, trying to rescue the good parts first in case of read errors. The ddrescue package also includes ddrescuelog, an auxiliary tool that manipulates ddrescue mapfiles, shows mapfile conten

  • 不良ディスクからデータを回収するGNU ddrescue

    ソフト名:GNU ddrescue 開発者:Antonio Diaz氏 ライセンス:GNU GPL v3またはそれ以降 配布元:http://www.gnu.org/software/ddrescue/ddrescue.html GNU ddrescueは,読み出しエラーが多発するような壊れかけの記録媒体からデータを回収するツールです。読み出し可能なデータを先に回収する方式を採用しているので,一刻を争う事態でもより多くのデータを救出できます。 HDDに不良が生じた際,最も重要なのはデータをいち早く回収することです。不良の原因がコントローラか機械的なものかを問わず,多くの場合で時間経過と共に問題が大きくなってしまい,回収できないデータが増えるからです。 データ回収のポイントは「問題なく回収できるデータを優先して作業」することです。読み出しエラーが生じるデータにこだわってリトライを繰り返すと,

    不良ディスクからデータを回収するGNU ddrescue
  • ddrescue - Wikipedia

    GNU ddrescue(グヌー ディーディーレスキュー)は、主に不良セクタのあるハードディスクドライブ (HDD) からのデータの救出に使われる、UNIX上で動作するフリーソフトである。macOSでも動作する。開発者はAntonio Diaz(アントニオ・ディアス)。 ディスクの最初のセクタから順次コピーしていき、不良セクタに当たるとその箇所を飛ばして、最後に飛ばした箇所をまとめて読み出すため、不良セクタの再三の読み込みでディスクを傷める可能性が低く、また正常セクタを優先的に回収するために早期に多くのデータが回収できるという特徴がある。 回収ログはファイルに残るため、途中で中断しても前の場所から再開できる。ファイル情報を基にせずにセクタ単位でコピーするため、ファイルシステムに損傷が発生している場合などにも対応できる。また、回収元と保存先は(不良セクタ以外)まったく同一になるため、回収元を

  • etckeeper

    etckeeper is a collection of tools to let /etc be stored in a git, mercurial, darcs, or bzr repository. It hooks into apt (and other package managers including yum and pacman-g2) to automatically commit changes made to /etc during package upgrades. It tracks file metadata that revison control systems do not normally support, but that is important for /etc, such as the permissions of /etc/shadow. I

  • etckeeperのつかいかた(インストール、サブコマンド追加) « Coding Suicidal

    Time to Read 2分 etckeeperと言うものがあり、要するに /etc 以下をリポジトリにして変更履歴を管理してくれる、大変大雑把と言えば大雑把なソフトウェアがあります。大雑把ですが、結構便利です。 インストール 1 sudo aptitude install git-core etckeeper そしたら、 /etc/etckeeper/etckeeper.conf と言う若干くどい名前の設定ファイルを編集。 1 2 3 4 5 # The VCS to use. #VCS="hg" VCS="git" #VCS="bzr" #VCS="darcs" Gitの他、MercurialやBazaarなんかが使えます。ただし、Subversionなどのような、中央リポジトリが必要なバージョン管理システムは使えませんね(ローカルにコミットしていくため)。 VCSを決めたら: 1

  • GitHub - kazuho/kaztools: shellscripts and utilities for myself

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - kazuho/kaztools: shellscripts and utilities for myself
  • Kazuho@Cybozu Labs: crontab を使って効率的にサービス監視する方法

    監視とは継続的なテストである、という話 (もしくは cronlog とテストスクリプトを組み合わせた監視手法について)に続きます 今日ようやく、積ん読状態だった「Software Design 2010年1月号」を手に取ったのですが、特集が「今日から使えるスクリプト満載! [プロ直伝]お手軽サーバ監視術」。興味深く拝読したのですが、もっと楽ができるのにと思うところも。ちょうど、昨年末に運用しているサービス「パストラック」のサーバを移転し、crontab と perl で書かれたスクリプト群を使った監視環境を構築したところなので、そこで使っているスクリプト cronlog を紹介したいと思います。 特集の前書きにも書かれていることですが、サーバやネットワーク機器が多数ある環境なら、Nagios を始めとする、専ら監視のために作られたソフトウェアを使って、監視システムを構築すべきです。逆に小規

    nobyuki
    nobyuki 2012/06/13
    cronlog
  • pg_statsinfo: Project Home Page

    pg_statsinfoは、PostgreSQLやOSのリソース情報、統計情報をスナップショットとして取得するためのツールです。 スナップショットとは、ある時点での各情報の集合体を指します。複数のスナップショット間の差分を解析することで、 DBで行われた活動状況の確認や性能ボトルネックを発見、また問題発生時の原因きり分けなどに有用な情報となります。 ツールでは、スナップショット取得やレポート作成用の機能を提供します。コマンド一つで手軽に情報の取得が可能となります。 この pg_statsinfo プロジェクトは PostgreSQL コミュニティによる pgFoundry の中のプロジェクトです。 ダウンロード : ソースコード、RPMパッケージをダウンロードできます。 バグレポート メーリングリスト への参加 ドキュメント インストール方法や使い方の説明は、下記のドキュメ

  • pg_reorg: Project Home Page

    pg_reorg は PostgreSQL のテーブルを再編成するシェルコマンドです。 共有ロックや排他ロックを取得しないため、再編成中であっても行の参照や更新を行うことができます。 このモジュールは CLUSTER や VACUUM FULL コマンドのより良い代替になります。 この pg_reorg プロジェクトは PostgreSQL コミュニティによる pgFoundry の中のプロジェクトです。 ダウンロード : ソースコードのほか、Windows 用バイナリもダウンロードできます。 バグレポート メーリングリスト への参加 ドキュメント ドキュメントはこちら。 実行時間 pg_reorg とclusterdb の比較に示します。 断片化のないソートされた状態 (not fragmented) では clusterdb のほうが高速ですが、完全に断片化した状態 (fully fr

  • Linuxでネットワークトラフィックを監視する方法

    UbuntuやFedoraといったGUIプラットフォームには、ネットワークトラフィックを表示するアプリケーションが用意されていることが多い。ただしそれらアプリが出力するトラフィック情報は大雑把で、個別の情報は表示されないことがある。またGUIアプリでは、sshでログインした状態でネットワークトラフィックを調査するといった作業ができない。 How to Monitor Network Traffic in Linux - Techthrob.comにおいてLinuxやUnixなどでネットワークトラフィックのモニタリングを実施するための2つのツールが紹介されている。コマンドラインで動作するツールなので、ssh経由でログインして使うことができる。紹介されているツールと活用例は次のとおり。 iftop(8) ネットワークトラフィック情報を表示するツール。IPとポート番号をベースに、それぞれの通信に

  • Multi Router Traffic Grapher - Wikipedia

  • ProGains Foundry | Great Supplements, Great Results

  • pg_bulkload: プロジェクト ホームページ

    はじめに pg_bulkloadは一定の制約条件の下で大量のデータを高速にロードするためのプログラムです。 大量のデータを投入するような状況では、細かなチェックは省いてでもいいからとにかく 高速にデータをロードしたいという場面があります。たとえば、あるデータベースに格納 されている情報を別のデータベースへ移送するような状況や、これから投入しようとする データの整合性がすでに別のツールで保証されているような状況がこれにあたります。 このような状況を想定して pg_bulkload は開発されました。 したがって、整合性を確認できていないデータのロードに対して、 pg_bulkload の使用 は適していません。この場合にはPostgreSQLがデータロードのためにもともと用意して いる COPY コマンドの利用をお勧めします。 注意点、使用方法を十分に理解した上で、pg_bulkload を

  • rdiff-backup - ローカル/リモートのミラーと差分バックアップ

    リンクページ: FrontPage(123d) ファイルのバックアップ(123d) Modified by seki "PukiWikiMod" 0.08 Fixed Copyright © 2003-2004 ishii & nao-pon. License is GNU/GPL. Based on "PukiWiki" by PukiWiki Developers Team Powered by PHP 5.2.6 HTML convert time to 0.338 sec.