タグ

qiitaとzfsに関するnabinnoのブックマーク (27)

  • 何気ないfreebsd-updateがZFSストレージプールを傷つけた - Qiita

    はじめに FreeBSDの更新をしたら正常にコマンドを実行できない状態に陥ったので、ひとまずデータだけを復旧したっていう話 経緯 以前からhp microserverにFreeBSD 10.1をインストールして、ファイルサーバとして利用していた。ストレージにはZFSを利用。そこに今回思い付きでPT3を入れて録画サーバとしても利用しようかなと思ったのが事の発端。 https://hgotoh.jp/wiki/doku.php/documents/freebsd/freebsd-019 上記URLに書いてあることを愚直に実行してPT3の関連ソフトウェアを導入していこう、と考えていたがrecpt1のautogen.shを実行するところで、autoconfとautomakeが要求されるのだが、それらのインストールでP5関連のエラーが発生し、解消しない。 海外のサイト見てると/usr/portsの下

    何気ないfreebsd-updateがZFSストレージプールを傷つけた - Qiita
  • du の結果について注意点。特に ZFS で、圧縮を効かせているとき。 - Qiita

    概要 あるシステムから別のシステムにディレクトリをコピーするときに、あらかじめ、 du -sh ディレクトリ を実行し、十分な領域があることを確認してから、コピーをした。 コピーが終わった後、コピー先で du -sh コピーしてきたディレクトリ をすると、元のサイズより、大きくなった。 原因 ZFS の圧縮機能によるものが大きいような気がしているが、そもそもduコマンドの仕様によるところもあると考えられる。。 ZFS のディスク領域の計上 - Oracle Solaris の管理: ZFS ファイルシステム そこに以下のような記述があった。 UFS ファイルシステムでは、du コマンドが、ファイル内のデータブロックのサイズを報告します。ZFS ファイルシステムでは、du コマンドが、ディスクに格納されているときのファイルの実際のサイズを報告します。このサイズにはメタデータと圧縮データも含ま

    du の結果について注意点。特に ZFS で、圧縮を効かせているとき。 - Qiita
  • zfs snapshot で発生する ZFS WARNING (error=63) - Qiita

    ZFS WARNING: Unable to create ZVOL zroot/vm/vm0001/disk0@zfs-auto-snap_hourly-2017-03-09-10h00 (error=63). ZFS WARNING: Unable to create ZVOL zroot/vm/vm0002/disk0@zfs-auto-snap_hourly-2017-03-09-10h00 (error=63). ZFS WARNING: Unable to create ZVOL zroot/vm/vm0003/disk0@zfs-auto-snap_frequent-2017-03-09-10h15 (error=63). ... zfstoolsにてスナップショットを自動で取得する際にエラーが発生している。 明確にerror=63の原因がわからない。どうも、名前が長すぎるよ

    zfs snapshot で発生する ZFS WARNING (error=63) - Qiita
  • DISKのメタデータ (zfs, GPT)を削除 - Qiita

    現象 debian8 で zfs を昔使っていた。 その後zfsを使わずext4で使っていた。 debian9 をクリーンインストールした後、blkidでUUIDが表示されないことに気がついた。 dd if=/dev/zero of=/dev/sda bs=1M count=1000 とかしても消えなかったので調査したところ、wipefsコマンドで消せることにたどり着いた。 HDD mount problem (bad FSTYPE) / System Administration / Arch Linux Forums 確認 # wipefs /dev/sda1 offset type ---------------------------------------------------------------- 0x7470abfc00 zfs_member [filesystem]

    DISKのメタデータ (zfs, GPT)を削除 - Qiita
  • �UbuntuでZFSを構築し,/homeをミラーリングする. - Qiita

    UbuntuでSSDにOSをインストールし, /homeのみRAID1のHDDに保存するメモ. SSDにOSのインストール インストールで,「その他インストール」で各自パーティションを設定する. 今回は,SSDの設定として, ルートファイルシステム・・・50GB スワップ領域・・・20GB 以上のパーティションでUbuntuをインストールする.HDDはなにもしない. Point OpenSSHを入れておくと,色々便利かも...

    �UbuntuでZFSを構築し,/homeをミラーリングする. - Qiita
  • Ubuntu 16.04 を ZFS Root でインストールすると grub-probe: error: failed to get canonical path of なんたら - Qiita

    $ sudo zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.67G 454G 96K / rpool/ROOT 730M 454G 96K none rpool/ROOT/ubuntu 730M 454G 596M / rpool/home 1.15G 454G 1.15G /home rpool/home/root 116K 454G 116K /root rpool/swap 4.25G 459G 64K - rpool/var 565M 454G 96K /var rpool/var/cache 127M 454G 127M /var/cache rpool/var/docker 437M 454G 2.44M /var/lib/docker rpool/var/docker/0aaacb3138f365e1d4c9d964a1b

    Ubuntu 16.04 を ZFS Root でインストールすると grub-probe: error: failed to get canonical path of なんたら - Qiita
  • ZFSな FreeBSDをSingle user mode で起動したときに mount -o rw,remount / が効かない時 - Qiita

    Register as a new user and use Qiita more conveniently You get articles that match your needsYou can efficiently read back useful informationYou can use dark themeWhat you can do with signing up

    ZFSな FreeBSDをSingle user mode で起動したときに mount -o rw,remount / が効かない時 - Qiita
  • ZFSを圧縮・暗号化してリモートバックアップする - Qiita

    目的 手元のサーバに保存されている一部のデータを遠隔地にあるリモートサーバにバックアップしたい。しかしリモートサーバは信頼できるユーザだけがアクセスできるとは限らないため、データを暗号化して保存する必要がある。そのため、ZFSのスナップショットをOpenSSLで暗号化する。 やりかた 前提条件 CentOS 7でZFS on Linux(0.7.3)を利用する ZFSのスナップショットを使いサービスを停止せずバックアップを転送する リモートサーバにはSSHで接続可能とする リモートサーバでZFSが利用できない可能性が高いとする 転送量を減らすため、pigzで並列して圧縮する データは送信前にOpenSSLで暗号化する バックアップはスナップショットイメージのまま保管したい スナップショットを作成済みでリモートサーバにはSSHで公開鍵認証設定済みのとき、次のコマンドでスナップショットの差分を

    ZFSを圧縮・暗号化してリモートバックアップする - Qiita
  • ZFS 重複排除 を使用して節約バックアップ (CentOS7) - Qiita

    某バックアップソフトウェアで取得していたCentOS サーバーのバックアップがある日突然エラーになり取得できなくなった。 ・メーカーサポートではRedhatしかサポートしてくれない。 ・上司お金は出したくない(とは言わないがなんとかしろとしか言わない) ・取得するサイズはトータル 180GB。 ・社内規則により世代バックアップは欲しい(日次 7日) 某バックアップソフトウェアでは重複排除により容量を25% ほどに抑えていた。 最後の要件が普通のNASではだめだったので、ZFS環境で重複排除を試してみることに。 環境:CentOS7 1.ZFS インストール rpm -ivh http://download.zfsonlinux.org/epel/zfs-release.el7_3.noarch.rpm yum install -y kernel-devel zfs reboot 2.zf

    ZFS 重複排除 を使用して節約バックアップ (CentOS7) - Qiita
  • Root on ZFS構築手順 - Qiita

    手順詳細 Live CD環境とホストOS共にopenssh-serverをインストールしてリモートから実行した。 ZFSパーティションの作成 ホストOSをインストールするディスクをパーティショニングする。 # sgdisk -n3:1M:+512M -t3:EF00 /dev/disk/by-id/ata-SanDisk_SDSSDXPS480G_161857400901 Warning: The kernel is still using the old partition table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) The operation has completed successfully. # sgdisk -n9:-8M:0 -t

    Root on ZFS構築手順 - Qiita
  • 俺様サーバー構築記 - ZFSをarchisoに埋め込む@VirtualBox(UEFI) - Qiita

    前置きは俺様サーバー構築記 - 基方針を参照。 2019/12/25 手順が若干変わったので記事を新しく起こしました。俺様サーバー構築記 - ZFSをarchisoに埋め込む; やり直し@VirtualBox(UEFI) 参考文献 インストールガイド - ArchWiki Arch LinuxをUEFI + GPT環境にインストールする - クロの思考ノート download 今日の時点でのArchLinuxインストーラー最新版をダウンロードしました。 archlinux-2017.12.01-x86_64.iso です。 Arch Linux をダウンロードのページから、適当なミラーを選択しましょう。私は何も考えずにリストの最上位 jaist.ac.jp を選択しました。 Windows10 にインストールしてあったVirtualBoxを使用し、新規作成します。 私のVirtualBo

    俺様サーバー構築記 - ZFSをarchisoに埋め込む@VirtualBox(UEFI) - Qiita
  • ZFSでsend/recvについてのメモ - Qiita

    iSCSIのボリューム/dev/mapper/mpathaに既にZFSのプールが作成してあるが、このボリュームサイズを変更したい。暫定的に別のiSCSIボリューム/dev/mapper/mpathbにデータを移行してボリューム拡張後に再度データを戻す。その一部についてのメモ。 ZFSプールtankが既にあるときに別のZFSプールtank2を作成。

    ZFSでsend/recvについてのメモ - Qiita
  • ZFS linux + 独自カーネル - Qiita

    ZFS を Scientific Linux 6 (CentOS 6) 独自コンパイルのカーネルにインストールする Linux カーネルをパッケージで利用しているときは、 ZFS についてもレポジトリを登録後 yum install で簡単にインストールでき、問題がおきてもパッケージの削除後、再インストールでまた復活します。 ZFS は DKMS1モジュールで提供されます。さらに、ZFS は SPL2 上で動きますが、SPL も DKMS モジュールです。 ここで、新しい Linux カーネルを使いたいとかでやむなく独自でコンパイルして導入しても、DKMS の仕組みで勝手にコンパイルしてモジュールが生成されます。うまく動いているうちは。でも、独自でコンパイルカーネルで、よくわからない理由で ZFS モジュールが認識されくなった時は、パッケージの削除後、再インストールで復活するのかといえば容

    ZFS linux + 独自カーネル - Qiita
  • vm-bhyveで使っているzvolをマウントする - Qiita

    ネタ元 この記事の大部分はfreebsd-stableのアーカイブにあるreboot-less zfs volmode property refresh?に基づいている。 動機 vm-bhyveで仮想化しているVMのディスクイメージにZFS volumeを使っている時に、ホスト側からディスクの中身にアクセスしたいことがある。例えばインストールがうまく行っておらず、ブートローダの状況を確かめたい場合など。 前提 FreeBSD 11.1-RELEASE-p9 問題点 vm-bhyveでZFS volume (zvol)をディスクイメージに使うと、volmode=devで作成されているためそのままではGEOMベースのツールが使えない。たとえばgpartでGPTパーティションを見ることもできないし、マウントすることもできない。 解決法 volmode=geomを使う volmode=devになっ

    vm-bhyveで使っているzvolをマウントする - Qiita
  • zfsのrefreservationプロパティの挙動を理解する - Qiita

    お急ぎの方は「概要」→「意義」→「まとめ」と読めばそれで済みます。 動機 ZFSでデータセットの使用量制御に用いるrefreservationプロパティを調べていたら、自分の直感に反する挙動を示したので整理する。ていうか、ドキュメントをなんとかして欲しい。 前提 OpenZFS (FreeBSD 11.1-RELEASE-p9) 概要 refreservationプロパティは子孫を含まないそのデータセット自身の使用量を予約する。この「データセット自身の使用量」はREFERのことだと思いがちだが、実際にはWRITTENに相当するようである。WRITTENは最新のスナップショット以降に書き込まれ参照可能なデータの量であり、スナップショットが存在しない場合のみREFERに等しい。つまりrefreservationを設定することは、最新のスナップショット以降に上書きまたは新規に書き込み保持できるデ

    zfsのrefreservationプロパティの挙動を理解する - Qiita
  • LXD with ZFS でバックアップをしたい - Qiita

    zfs list NAME USED AVAIL REFER MOUNTPOINT default 339M 14.1G 24K none default/containers 7.03M 14.1G 24K none default/containers/first 7.01M 14.1G 332M /var/lib/lxd/storage-pools/default/containers/first default/custom 24K 14.1G 24K none default/deleted 24K 14.1G 24K none default/images 332M 14.1G 24K none default/images/b190d5ec0c537468465e7bd122fe127d9f3509e3a09fb699ac33b0c5d4fe050f 331M 14.1G 3

    LXD with ZFS でバックアップをしたい - Qiita
  • エラーを自動訂正するZFSの構成とZFS用パーティション作成時の注意点 - Qiita

    この話の続きです。 ZFSの特徴の一つにチェックサムを保管しエラーを検出する機能があります。しかしエラーを検出できたとしても、この例のようにZFSが自動でエラーを修正してくれるためには単純なZFSプールではうまくいきません。壊れたデータを書き直すための正しいデータを持った部分が無いと復旧できないわけで、そのためにプールに冗長構成を持たせる必要があります。冗長構成になっていれば、ZFSはエラーが発生したブロックを破棄し、正常なブロックからデータを自動で復旧してくれます。 ご存知の通り、ストレージシステムに冗長構成を持たせるためにはRAID5, 6やミラー(RAID1)などがありますが、ZFSでの冗長構成のストレージシステムを構成する方法に付いて以下に順に記載します。 RAIDZの作成 ディスクが3台以上ある場合は、RAIDZ (あるいはRAIDZ2、RAIDZ3)を構成するのが適正でしょう。

    エラーを自動訂正するZFSの構成とZFS用パーティション作成時の注意点 - Qiita
  • ZFSのRAIDZの修復とついでに拡張する - Qiita

    ZFSのプールを使っていると、作ったあとにHDDが壊れたり、容量を増加したくなることがあります。その時に、慌てないように事前に調査と演習をしたのでその備忘録的なものをまとめてみました。 容量の拡張は、ZFSでミラー(RAID0)にやったことがあるのですが、RAIDZは初めてです。 普通のRAIDでだと別のRAIDセットを作りコピーするとかが必要になります。 ZFSだと、無停止で拡張できるのではないかと思いブートボリュームでできないかやってみました。 実行環境はXenServer上でFreeBSD 10.3でやってみました。 準備 FreeBSD 10.3を用意する。 Boot Volume用として8Gバイトのストレージを3個用意する FreeBSD 10.3のインストラーで自動でRAIDZでZFSを作る ブートボリュームzrootが/dev/ada[012]で出来ているはずです。 /dev

    ZFSのRAIDZの修復とついでに拡張する - Qiita
  • zfs - MacBook Air (13-inch, Late 2010) をオクタブート化 - Qiita

    勇者がいないなら、自分が勇者になればいいのに。 前回記事 勇者はぜひ上記に macOS と illumos も加えたクアッドブートディスクをこさえてみてください。 というわけでやりました。 illumos は後述の理由でないけどクワッドどころかオクタブートです。それもベアメタルで。 MacBook Air (13-inch, Late 2010)。6年以上前のノートブックの未来、かつて私のメインノートで、その後長女のメインノート。だから裏蓋はこんな。 その長女のメインノートも、私と同じ MacBook Pro (Retina, 13-inch, Mid 2014) に変わって以来、しばらくお蔵入りしていたのを引っ張り出して来ました。 USB3はおろか、Thunderboltもない、CPUパワーは今日日のiPhoneに負けてしまうロートルですが、 Sierra も Windows 10 も動

    zfs - MacBook Air (13-inch, Late 2010) をオクタブート化 - Qiita
  • zfs - 単一パーティションでマルチブート - Qiita

    なんぞこれ? 事実上パーティションが一つしかないのに、UbuntuだけではなくFreeBSDもブートできます。Debian kFreeBSDとかではなく正真正銘The FreeBSD Project謹製のFreeBSD 11-RELEASEです。 FreeBSDの方は起動時はCLIのみですが、 Username: freebsd Password: zfs でログイン後にstartxするとgnome3が立ち上がります。 ubuntuの方は前回の投稿と同様です。というかそれが材料になってます。 作り方 すでにubuntuがインストール済みのVMを用意 FreeBSD-11-RELEASEのインストールディスクイメージをCDに指定してそこから起動 shellに入る FreeBSD用のデータセットを追加。こんな感じで。 # zpool import -f -N -R /mnt rpool # z

    zfs - 単一パーティションでマルチブート - Qiita