タグ

backupに関するyukimori_726のブックマーク (11)

  • Dockerのシステム移行手順(バックアップおよび復元方法) - Qiita

    大まかな移行の流れ コンテナのイメージバックアップ取得(移行元) データボリュームのバックアップ取得(移行元) コンテナのイメージバックを復元(移行先) データボリュームのバックアップを復元(移行先) コンテナのイメージバックアップを何故とるのか。 来であればコンテナのイメージバックアップをとるような仕組みはよろしくない。バックアップを必要とすることはあってはならない。docker-composeファイルやDockerfileですべて完結されるべきでファイルさえあれば常に同じ環境が構築(他人へ再配布)できるような仕組みが良いとされている。 しかし、どうしても自動化できない設定をするケースがある。(例えばRedmineのBacklogsプラグイン等) もしくは、Dockerが良く理解していない他人が、見ていないところで勝手にコンテナにアクセスしてyumで何か追加インストールしたりもあり得る

    Dockerのシステム移行手順(バックアップおよび復元方法) - Qiita
  • linux-backup#i-6

    色々な面でのバックアップはエンジニアにとって必須の習得項目だ。 プログラムでのバージョン管理やデータの自動保存など、様々な面でバックアップは行っているはずだ。 Linuxを使うときもバックアップは必須で、これがないと怖くてやってられない。 このページではLinuxでの「バックアップ」について全般的にまとめてみた。参考にしていただければと思う。 リスクとバックアップについて スマホ普及のお陰か、一般の人でも「バックアップ」という言葉自体の意味がわからない人はほとんどいなくなった。それくらい日常的に行われているのがデータのバックアップだ。 仕事のデータをオペレーションミスで削除しても復元できるように違うディレクトリにコピーする。これは「論理的なデータ損失」に対しての対策だ。 内蔵のHDDが故障してもデータを失わないように、外付けの記憶媒体へ保存する。NASなどのファイルサーバに定期的にデータを

    linux-backup#i-6
  • 窓の杜

    窓の杜
  • 卜部昌平のあまりreblogしないtumblr

  • シェルスクリプトでバックアップのすすめ~初心者でもよくわかる!VPSによるWebサーバー運用講座(5) | さくらのナレッジ

    VPSによるWebサーバー運用講座の連載5回目(最終回)です。 今回は、シェルスクリプトによるWebコンテンツのバックアップの方法や、OSのセキュリティアップデートについて解説します。 サーバーOSはCentOS 6.7として説明しています。 Webコンテンツの定期バックアップをしよう VPS上にWordPressなどのCMS(コンテンツマネジメントシステム)をインストールしてWebサイトを運用しているケースは多いと思います。 こういったツールは、ファイル転送ソフトを使わなくてもブラウザだけで記事を書いたり編集したりできて便利です。しかし、作った記事コンテンツはサーバー上にしか存在せずパソコン上には残りません。何らかのアクシデントでデータベースのデータが消えてしまうと、バックアップがどこにもないので泣き寝入りするしかありません。 便利さの反面そういった落とし穴があるので、日頃からデータのバ

    シェルスクリプトでバックアップのすすめ~初心者でもよくわかる!VPSによるWebサーバー運用講座(5) | さくらのナレッジ
  • ccollect によるバックアップの設定 - @znz blog

    ccollect という rsync の --link-dest オプションによるハードリンクをうまく使って差分バックアップをしてくれるツールでバックアップ設定をしました。 インストール deb パッケージは存在しないので、まず git clone https://github.com/ungleich/ccollect ~/src/github.com/ungleich/ccollect などで最新 (現時点で 1.0) の ccollect を github のミラーから取得します。 家 の download ページにある tarball は 0.8 まででちょっと古いです。 共通設定 設定は CCOLLECT_CONF (デフォルトは /etc/ccollect) の中に置いていきます。 共通設定は defaults の中に、バックアップごとの設定は sources の中に置いてい

  • Macで自動環境構築&バックアップ(App Storeも) - Qiita

    そろそろMacの買い替えの時期なので、以下のものを使って個人のMacをバックアップしつつ同じ開発環境を別のMacへと移行できるよう準備をする。 homebrew homebrew-bundle homebrew-file mas mackup + Dropbox atom apm RubyGemとかもあるけどgemプロジェクト毎にbundle installsすればいいよね、ということで除外。なのでeditorのAtom, dotfiles, brew設定が移行できればよいかな、と。 Mac 環境構築の自動化 2015年末版 ( homebrew + homebrew-cask + homebrew-brewdle + mackup + crontab )にて同様のことをされているのでこちらも参考に。こちらではcronでバックアップを自動でとっています。 でこちらではこれに加え、私が普段

    Macで自動環境構築&バックアップ(App Storeも) - Qiita
  • dockerのデータボリュームとそのバックアップ方法 - Qiita

    データの永続化はdockerでよく課題になると思います。 docker docsには、Manage data in containersの節に、いくつかの方法が示されています。 データボリュームを利用する ホストのディレクトリにマウントする。 しばらく前まではホストのディレクトリに逃がしていたのですが、ホストのディレクトリとコンテナの中ではユーザの番号や書き込み権限の管理が違ったりして、うまくいかないことも多かったので、最近はまじめにデータボリュームを使うようにしています。 MySQLを例に、データボリュームとそのバックアップ方法をまとめてみます。 データボリュームを作成してマウントする データボリュームは、dockerfileのVOLUMEで指定したディレクトリ、またはdocker runにて-vで指定したディレクトリに、自動で作られます。そしてそれは、コンテナとは別に管理され、dock

    dockerのデータボリュームとそのバックアップ方法 - Qiita
  • ftp を使ってディスク丸ごとバックアップ

    最近、カーネルやOSSソース, ISO イメージの収集蓄積を行うのに、ZFS on Linux を利用しています。 メイン PC のディスクを丸ごとバックアップすることも利用目的の1つです。 しかし、ネット上にいくつも情報があるように、ZFS on Linux + NFS アクセスする場合、どうにも性能が出ないようです。 わたしの環境では、書き込みスループットが 1 MB/s を下回るくらいです。とても実用にはなりません。GigaBit Ether で接続しており、ftp ならば 50MB/s くらいは出る環境なのに、NFS だと全然遅くなってしまうのです。残念。バックアップ対象の PC のディスクは 180GB であり、圧縮して 100GB になったとしても、1 MB/s ですから、100000 秒もかかる計算です。どうにかできないものか・・・ ディスク丸ごとバックアップするというと、次

  • Dockerのコンテナ名を取得してバックアップを定期的にとるRubyスクリプト - yumulog

    docker export でコンテナの簡易的なバックアップを定期的に取るスクリプトをrubyで書いてみました。 やってることは docker ps で稼働中のコンテナ名を取得 docker export <コンテナ名> でhourlyで tar 出力 24時間を過ぎたhourlyバックアップを消す 7日を過ぎたdailyバックアップを消す(毎月1日のみ残す) clockwork使ってるので、入ってない場合は $ gem install clockwork で。 ruby script to backup(export) docker container ディレクトリをコンテナ名で掘るようにしてるので、コンテナ起動の度に変わるのと、起動時に --name オプションつけないとランダムなアレになってしまう。。。

    Dockerのコンテナ名を取得してバックアップを定期的にとるRubyスクリプト - yumulog
  • 富豪的バックアップのススメ - Blog by Sadayuki Furuhashi

    間違ってrmしてしまったっ!! ということは誰しも一度はあると思いますが、そう言うときのためにもバックアップやバージョン管理は重要なわけです。 しかしバックアップは1時間に1回や1日に1回程度しか行わないので、たとえば5分前に変更したプログラムをrmしてしまったら、その5分間の変更は水の泡です*1。何という損失! 中でもやる気の損失が激しい。 上書き保存するたびにバックアップ そこで、これは受け売りなのですが、エディタでファイルを保存するときに常にバックアップを残すようにしています。 当然のことながら凄まじいファイル数になりますが、エディタで編集するのは大方プログラムや設定ファイルなので大した容量にはなりません。今私のバックアップディレクトリを見てみると 2008年4月2日16時15分30秒 から累積して約5万個のファイルが残っていますが、サイズは 400MB 程度です。 今時のHDDから

    富豪的バックアップのススメ - Blog by Sadayuki Furuhashi
  • 1