並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 21 件 / 21件

新着順 人気順

zfsの検索結果1 - 21 件 / 21件

  • 絵描きのzfs snapshot活用術 - takaha.siの技術メモ

    あっ、線画レイヤーに色塗ってる! 突然ですが、私、趣味で絵を描きます(NSFWです) twitter.com 絵描きあるあるが「線画レイヤーに色を直接塗ってしまっており、それに気づくことなく作業をガンガン進めてしまい、気づいたら手遅れなところまで進んでしまっている」という事故です。ご丁寧に保存しちゃってたりするともはや後には戻れません。なんとか、お絵かきソフトを駆使して線画と中の色塗りの部分を分離するみたいなことをするしかないです。とてもとても面倒くさいです。 なので考えました。せっかくzfsのNASを組んだのだから、zfs snapshotで一時間ごとに絵のファイルが保存されてる作業フォルダのスナップショットを取っておけばよいのでは?と。そしたら、ミスに気づいた時点で過去のスナップショットをさかのぼって、そこから色が塗られちゃう前の古い作業データの線画レイヤだけ取り出して現作業ファイルに

      絵描きのzfs snapshot活用術 - takaha.siの技術メモ
    • UbuntuにZFSを導入しSambaファイルサーバにする

      タイトル通りです。私が実際にやった作業をメモ代わりに記載しておきます。 Ubuntu 22.04.2 LTSのインストール インストール方法などは本記事スコープ外。Ubuntuの公式サイトからisoイメージをDLし、Rufusを使ってUSBメモリに焼き込んでブータブル化、それを用いてPCにUbuntuをインストールしました。 UbuntuのバージョンはUbuntu 22.04.2 LTS (GNU/Linux 5.15.0-69-generic x86_64)。 パッケージ最新化 とりあえず最新化を行うおまじないのような作業です。 sudo apt -y update sudo apt -y upgrade 番外編 矢印キーで履歴サーチ設定 番外編作業ですが、ターミナル操作で、矢印キーを使って履歴のサーチができるようにしたいので、.bashrcにbindコマンドを追記します。 bind '

        UbuntuにZFSを導入しSambaファイルサーバにする
      • FreeBSDでZFSを使用するときに気を付けたいこと - レンコン畑でつかまえて

        はじめに 弊社ではFreeBSD(をベースとしたアプライアンスであるXigmaNAS)とZFSを使用してどの逸般の誤家庭にもあるようなファイルサーバを運用しています。 構築する際に参考になるようなページがもっと増えればいいかなと思いまとめておこうと思います。 ZFSの概要 ZFSは頂点にzpoolが存在し、このストレージプールを用途に合わせて分割して使用します。 zpoolは複数のvdevから構成され、vdevに複数のHDDが属するイメージですね。 さて、ZFSはその堅牢性を強調されることが多いですが、その冗長性がどこで担保されているかというとvdev単位で担保されています。 イメージとしてはvdevをストライピングしてzpoolを構成している感じです。 そのため、zpoolを構成するvdevが1つでもアクセス不可能になるとプール全体が崩壊します。 プールのエクスポートとインポート ZFS

          FreeBSDでZFSを使用するときに気を付けたいこと - レンコン畑でつかまえて
        • 俺様サーバー構築記 - Arch Linux + ZFS + Xfce に入れた物などの覚書@ノートパソコン - Qiita

          2019/02/09 設定: タップ タッチパッドのタップをクリックとして認識する設定。 ぐぐると synclient を実行するとか、 /usr/share/X11/xorg.conf.d/50-synaptics.conf に追記とか、場所と番号はバリエーションがあるものの似たような話が横行。 そんな中で見つけたArchWikiの記述。 Synaptics タッチパッド - ArchWiki Xfce 4 でタッチパッドの設定を変更するには: 1. システム設定を開いて下さい。 2. マウスとタッチパッドをクリックしてください。 3. タッチパッドタブの設定を変更してください。 このまんま操作すれば、タップをクリックとして認識されるようになりました! メニュー項目の名前が多少違っていたけど、そんなものは御愛嬌ですな。 2019/02/11 ツール: nkf 言わずと知れたnkfです。A

            俺様サーバー構築記 - Arch Linux + ZFS + Xfce に入れた物などの覚書@ノートパソコン - Qiita
          • Proxmoxの起動ドライブをZFSでインストール~障害ディスクの交換 - Qiita

            こんにちは。 ALJの江口と申します。 本格的にProxmoxを使う場合は起動ドライブもRAIDを組まれると思います。 Proxmoxで起動ドライブにRAIDを使った場合の大まかな雰囲気についてご紹介したいと思います。 以下の記事は、現時点での最新のProxmox Virtual Environment 8.1.10を用いて説明しています。 テスト環境の準備 ProxmoxはネステッドVMが可能なので、Proxmox上にProxmoxをインストールしました。 ディスクは3本(scsi0~scsi2)アタッチしました。 インストール いつも通りインストールします。Target Harddiskにディスクが3本見えていると思いますので、右の「Option」を押します。 オプションの画面で今回はzfs(RAID1)を選択しました。 ミラーでインストールするので、3本目は「do not use」に

              Proxmoxの起動ドライブをZFSでインストール~障害ディスクの交換 - Qiita
            • QNAPは、画期的なAMD Ryzen™ 7000 Seriesプロセッサを搭載したTS-hx77AXU-RPシリーズエンタープライズZFS NASをリリース

              Tower NAS TS-432X NEW TS-632X NEW TS-216G TBS-h574TX View All ショートデプス・ラックマウント Nas TS-855eU TS-855eU-RP TS-435XeU TS-873AeU View All ラックマウント NAS TS-h3077AFU TS-h1277AXU-RP TS-h1677AXU-RP TS-h3087XU-RP View All オールフラッシュNAS TS-h3077AFU TBS-h574TX TS-410E TS-h1090FU View All 2.5GbEバンドルパック TS-473A-SW5T TS-673A-SW5T TS-873A-SW5T ストレージアクセサリ QXP-3X4PES QXP-3X8PES QXG-10G2SF-X710 QXG-10G2T View All リソース NA

                QNAPは、画期的なAMD Ryzen™ 7000 Seriesプロセッサを搭載したTS-hx77AXU-RPシリーズエンタープライズZFS NASをリリース
              • Ubuntuをzfsルートにしたときのメモ

                ただのzfsルートだとUbuntu 24.04のインストーラでできるが、raidzもやろうとするとできない。 インストーラが複数メディアへのインストールを想定していないよう。 なのでOpenZFSのドキュメントを見ながら手動でUbuntuをインストールした。 Ubuntu 22.04 Root on ZFS — OpenZFS documentation debootstrapから構築したのいつぶりだろう。 基本的にはドキュメント通りにやっていけばよい。英文を読むとRAIDを組むときにコマンドをいじる部分が書いてある。自分はzfsのネイティブ暗号化で構築した。 成功すると↑のようにログインより前にディスクの暗号鍵を訊かれる ただしブートシステムがlegacyかUEFIか、シングルディスクかマルチディスクかで選択になるコマンドを間違って叩くと破滅する(一敗)。 どれがクリティカルだったのか分

                  Ubuntuをzfsルートにしたときのメモ
                • データを活かしたままZFSプールサイズを拡張する - Qiita

                  はじめに ZFSには保存済みデータに影響なくプールサイズ(パーティションサイズ)を拡張する機能が用意されていて、autoexpandプロパティを設定して拡張できます。これを実際に操作してみます。 ここでは1台のディスク内でプールサイズを20GBから30GBに拡張します。 テスト環境 以下のテストは手元の実験用サーバーで、内蔵120GBのSSDの前半(60GB程)にWindowsがインストールしてあるものを使いました。 ディスクはGPTでパーティション管理を行なっていて、FreeBSDのデータ用に20GB確保しました。パーティションインデックスは 6 です。 $ gpart show ada0 => 34 250069613 ada0 GPT (119G) 34 2014 - free - (1.0M) 2048 102400 1 ms-basic-data (50M) 104448 121

                    データを活かしたままZFSプールサイズを拡張する - Qiita
                  • CentOS7.5にZFS on Linux を入れる | セッキーが作ったページ

                    参考資料 ゼロから CentOS 7 をインストールし ZFS で RAIDZ を使ってみた – Lunasalt.com http://lunasalt.com/?p=5015 RHEL and CentOS · zfsonlinux/zfs Wiki · GitHub https://github.com/zfsonlinux/zfs/wiki/RHEL-and-CentOS 環境 # cat /etc/centos-release CentOS Linux release 7.5.1804 (Core) リポジトリの追加 # yum install http://download.zfsonlinux.org/epel/zfs-release.el7_5.noarch.rpm Loaded plugins: fastestmirror zfs-release.el7_5.noarch

                    • ルートパーティションをZFSにしてUbuntu 20.04 LTSをインストールしてみた · hnakamur's blog

                      2020-04-26 はじめに 実はルートパーティションをZFSにするのは以前から試してみたいと思っていました。 Trying Out Ubuntu 20.04 With ZFS + Zsys Automated APT Snapshots - Phoronix をみて Ubuntu 20.04 LTS のデスクトップインストーラーで advanced features に追加されたというのを知りました。 ただし、 ZFS をルートファイルシステムにするのは引き続き experimental です。 ということで、今回普段使って無い物理サーバーでルートパーティションをZFSにしてUbuntu 20.04 LTSをインストールするのを試してみました。 ただし、上記のデスクトップインストーラーのメニューからではなく Ubuntu 18.04 Root on ZFS · openzfs/zfs

                      • ZFSのキャッシュの効果をProxmoxで確認した話 - Qiita

                        こんにちは。 ALJの江口と申します。 ZFSは使っているでしょうか。 今まではRAID、ファイルシステムの管理が別々でしたが、ZFSならまとめて面倒みてくれるため、とても便利です。 ZFS on Linux は安定性に問題があったこともありましたが、ここ2~3年で非常に安定してきていると感じています。ZFSには興味があるので、個人的な環境ではZFSを積極的に利用するようにしています。 最近自宅にProxmoxVEをHDDの構成でマシンを作りました。ディスク構成は、HDDのZFSミラーを選択し、NVMe SSDをキャッシュとして追加したので、簡単ではありますがキャッシュの有無で差が出るかテストしてみました。 今回はProxmoxというより、ZFSのキャッシュを理解するという内容になっています。 自宅サーバーに求める私見 自宅に仮想サーバーを構築する場合、私は以下のようなことで悩みます。 項

                          ZFSのキャッシュの効果をProxmoxで確認した話 - Qiita
                        • ZFSのSpecial vdevを試してみる

                          階層化ストレージのZFS版ともいえるSpecial vdevとSpecial Allocation Classについて、1年程前に当サイトでも解説した。いつか試そうと思いつつ延び延びになっていたが、いよいよ導入の機運が高まってきたので簡単にテストした。 まずはコマンドの確認から。以下、da0p1をノーマルvdev(プール本体のストレージ)、da6p1をスペシャルvdevとする。 スペシャルvdev付きプールを作る。vdevタイプとしてspecialを指定し、その後にスペシャルvdevに割り当てるデバイスを指定する。 # zpool create -O atime=off ztest da0p1 special da6p1 $ zpool status ztest pool: ztest state: ONLINE config: NAME STATE READ WRITE CKSUM zt

                            ZFSのSpecial vdevを試してみる
                          • ZFSを有効化したLinuxでdockerデーモンを起動するとzpool/ROOT 下に作られてしまうのを防ぐ

                            ZFSを有効化したLinuxで、dockerデーモンを起動すると、自動でZFSを使って起動するようになる。しかし、レイヤー1つずつにfilesystemとして登録され、しかも zpool/ROOT/var/lib/xxx に作られてしまい、zpool/ROOT でスナップショットをとると、dockerの各レイヤーにまでスナップショットが取られてしまい、辛い感じになる。 これを回避するには、zpool/ROOT とは異なる zpool/DOCKER を作成し、それを使ってdockerデーモンが動くようにすれば良い。 以下のコマンドで、filesystemを作る。

                              ZFSを有効化したLinuxでdockerデーモンを起動するとzpool/ROOT 下に作られてしまうのを防ぐ
                            • Water PantherのHDDを用いてZFSファイルサーバを構築した – 微同期 I/O

                              私は趣味でゲームやTVの録画をしており、保存先としてファイルサーバを運用しています。 現行ファイルサーバが10年ほど稼働していてリプレースを検討していたところに安価なSAS HDDの調達先を聞いたので新規にファイルサーバを構築しました。 ファイルサーバの構成 今回構築したファイルサーバの構成は以下のとおりです。 ハードウェア Chassis SilverStone CS381 CPU AMD Ryzen 5600G DRAM Sanmax DDR4-2400 ECC DIMM 16GBx2 M/B Asrock TUF B550M Plus PSU CoolerMaster V550 SFX HDD Water Panther 14TB 7.2k SAS HDD(refurbished) x8 SSD KIOXIA EXIRIA SATA 240GB KIOXIA EXIRIA SATA

                              • ZFSのdRAIDをLinuxで実装 - Qiita

                                ZFSと言うとSolarisのものというイメージがありましたが、Linux版も良い感じに仕上がっているという事でメモ。 Ubuntuでzfsutilsをaptすれば導入も楽にできるので、これから始める場合はUbuntu 22.04が良いと思います。なぜなら、dRAIDというRAIDレベルが使えるから。 dRAIDは簡単に言うと再構築めっちゃ早いRAID。 仕組みとしてはホットスペアを分散して再構築を並列化するという仕組みで、RAID ADAPT,Declusterd RAID,DDPなど ベンダーによって色々な名前がついたやつをOpen Sourceでもできるというわけ。 ただ、バージョンがOpenZFS 2.1以降で対応なので、Ubuntu20.04とそれ以前のバージョンで自動で落としたOpenZFSだと含まれていません。 なので、Ubuntuは22.04以降の方が何かと楽です。 参考リ

                                  ZFSのdRAIDをLinuxで実装 - Qiita
                                • ZFSのL2ARCの効果も調べる(SMB編) | プラスα空間

                                  ZFSのARCの効果を調べてます。きっかけは、次のメールです。 [netatalk-ja:0460] ZFS ARCとの組み合わせ ZFSでARCをOFFにすると、WriteよりもReadの速度の落ち方が激しいと言う事です。最初、ARCのOn/Offで測定し、次にL2ARCも含めた調査をしました。昨日の時点では、AFP接続(Netatalk使用)の場合です。 ZFSでARCの効果を調べる : プラスα空間 (2015年5月25日) ZFSのL2ARCの効果も調べる : プラスα空間 (2015年5月27日) ARCだけのOn/Offだと、Readの落ち込みが大きい様ですが、L2ARCだとWrite/Readでの落ち込み量の変化は小さそうです。 SMB接続(Samba使用)だと、Write/Readの落ち込みが変わらないという情報もありました。調べてみました。 まずは、SMB1(Samba3

                                    ZFSのL2ARCの効果も調べる(SMB編) | プラスα空間
                                  • [ZFS] 自宅サーバーのRAID-Zのハードディスクリプレースのメモ

                                    // どうでもいいけど自宅サーバーって響きが既に年季を感じる時代になってしまいました。 宅サバのZpool (ZFS) にあるHDDからずっと異音がしてるのでリプレースすることにした。 何度かやってるけど、そのたびに調べ直すことになって結構面倒なので、その時のメモを残す。 (以下はzpoolのPool1にある、DiskId11をDiskId22に交換する場合のコマンド例) ディスク除去まで 今回は交換先ドライブがまだないので、まずディスクをoffline。 (既に手元にあって、マシンに接続されている場合はスキップしてbadblock後いきなりreplaceでok) # zpool offline Pool1 DiskId11 状態確認 # zpool status pool: Pool1 state: DEGRADED status: One or more devices has bee

                                    • FreeBSD で ZFS を利用する – RAWボリュームを切り出す & iSCSI として提供する

                                      徒然と日々の出来事(ネタ)を書いていこうかと.主に FreeBSD,Unix系の話題が中心ですが,その他の話題もあつかってみたり. ブロックデバイスとして切り出す ZFS のストレージプールからブロックデバイスとして切り出すことが可能です. ZFS の中にボリュームを切り出して UFS フォーマットで利用する (またはその他のファイルシステムフォーマットを行う) ことや,iSCSI や GEOM GATE で他ホストへ共有を行うことができます. ボリュームの作成も zfs create で行います. # zfs create -V 10G pool0/zvol0 # zfs list NAME USED AVAIL REFER MOUNTPOINT pool0 10.3G 86.1G 24K /pool0 pool0/data-backup 26.5K 86.1G 26.5K /pool0

                                        FreeBSD で ZFS を利用する – RAWボリュームを切り出す & iSCSI として提供する
                                      • UbuntuでZFSを使ってみよう 第16回 遠隔地へバックアップしてみよう | 株式会社デジタル・ヒュージ・テクノロジー

                                        前回は、スナップショットを使用したバックアップ/リストア方法について説明しました。今回は、ZFSを遠隔地へバックアップ・リストアする方法を説明します。 sshを使用したZFS ファイルストリームのバックアップ・リストア 前回説明したとおり、ZFSのバックアップは zfs sendで標準出力として出力されます。このファイルストリームを利用して、以下のようにssh接続先へファイルストリームをバックアップ可能です。スナップショット間の差分も同様にバックアップ可能です。 $ zfs list -rt all rpool/USERDATA/user1 NAME USED AVAIL REFER MOUNTPOINT rpool/USERDATA/user1 296K 780G 104K /home/user1 rpool/USERDATA/user1@aaa 64K - 104K - rpool/U

                                        • UbuntuでZFSを使ってみよう 第12回 ARCとZILについて知ろう | 株式会社デジタル・ヒュージ・テクノロジー

                                          前回は、ZFSの読み書きの仕組みを説明しました。今回は、読み書き両方に関連があるARCとZILについて説明します。 ARCは、SolarisではAdaptive Replacement Cacheと呼ばれていましたが、Linuxでは、Adjustable Replacement Cache と呼んでいるようです(Aaron Toponce’s ZFS on Linux User Guide を参照)。ARCはキャッシュアルゴリズムの一種ですが、ZFSではファイルキャッシュとして利用しているため、ファイルキャッシュと同義としてよく扱われます。ARCアルゴリズムの詳細は、The Adjustable Replacement Cacheを参考してください。このファイルキャッシュによって、よく使用されるファイルを高速に読み書きできます。 ARCの最大値 ZFSのARCは、最大1で使用可能なメモリの

                                          • ZFSのディスク交換の備忘録 - smectic-g’s blog

                                            長らくFreeBSDのZFSでファイルサーバは運用しているのだけど,RAIDを運用している場必ず発生するディスク異常と,それに伴うディスク交換で,とりあえず落ち着いたけど嵌りそうになったので,備忘録。 環境は以下 $uname -a FreeBSD copper 12.1-STABLE FreeBSD 12.1-STABLE r353437 NO_DEBUG amd64 構成は基本的には現行ファイルサーバのパフォーマンス - smectic-g’s blogの記事のとおりなんだけど,ディスクのみSeagateのIronWolf 8TB(ST8000VN0022-2EL)に交換してある。8TB*6diskという今思うとかなりリスク高めの構成。 2020-1-12 23:00 200GBのファイルをコピーしようとしたら,妙に遅いので,zpool statusを見ていたらDegradedしている

                                              ZFSのディスク交換の備忘録 - smectic-g’s blog
                                            1