タグ

qiitaとfile-systemに関するnabinnoのブックマーク (42)

  • あの日見たLinuxのディレクトリやコマンドのフルネームを僕達はまだ知らない - Qiita

    はじめに Linux利用歴はそこそこありますが、よく使うディレクトリやコマンドのフルネームを全て知っているかというと、そうでもないなと思ったので、今回はそれについてまとめてみました。 特にLinux初学者の方にとっては、各ディレクトリ名やコマンド名は何の略称かを知っておいた方が、覚えやすいと思うので、ぜひ参考にしていただければと思います。 注意事項 記事では、よく使うディレクトリやコマンドの中で略称になっているもののみを取り上げています。すべてのディレクトリやコマンドを網羅しているわけではありません。 略称のフルネームがすべて明確に文書化されているわけではありません。これらの略称は、元々UNIXや他のプラットフォームで使用されていたものや、開発者やコミュニティの独自の規則や慣習に基づいています。 Linuxディストリビューションによっては、独自の命名規則や用途を持っている場合もあります。

    あの日見たLinuxのディレクトリやコマンドのフルネームを僕達はまだ知らない - Qiita
  • AWS Storage Gateway とは - Qiita

    AWS Storage Gateway は、オンプレミスのソフトウェアアプライアンスをクラウドベースのストレージと接続し、お客様のオンプレミスの IT 環境と AWS のストレージインフラストラクチャとの間にデータセキュリティ機能を備えたシームレスな統合を実現するサービスです。このサービスを使用すると、AWS クラウドにデータを保存し、データのセキュリティを維持するために役立つ、スケーラブルで費用効率が高いストレージを利用できます。 ファイルゲートウェイ NFS バージョン 3 または 4.1 プロトコルを使用して、ファイルを直接保存し取得 SMB ファイルシステムのバージョン 2 および 3 のプロトコルを使用してファイルを直接保存および取得 AWS クラウドアプリケーションまたはサービスから Amazon S3 のデータに直接アクセス ライフサイクルポリシー、クロスリージョンレプリケー

    AWS Storage Gateway とは - Qiita
  • ウサギでもわかるAmazon FSx for Windows概要と構築 - Qiita

    さて、今回はAWSのマネージドファイルサーバーサービス、FSxを触ってみたいと思います。 Amazon FSxとは 簡単に言うとWindowsServerのストレージを利用できるマネージドサービスです。 初めて聞いたときは「ついにWindows Storage Serverもクラウド化したのか~」などと頓珍漢なことを思った記憶があります。 当然ですがOSが丸ごと提供されるEC2とは異なるため、RemoteDesktopによる管理とはまた違う方法で管理する形になります。細かい設定方法は別のサーバー上でPowerShellから実行する必要もあるそうです。 料金は ファイルサーバーというと前職でもWindowsServerを「これでもか!」というほど構築してきたので、当然EFSとかFSxも発表されたときにそれなりに情報調査をし、提案することができるかを比較してきました。しかし、いまいち料金的に安

    ウサギでもわかるAmazon FSx for Windows概要と構築 - Qiita
  • EFSとEBS - Qiita

    AWSのストレージサービス AWSには以下のようなストレージサービスが提供されています。 インスタンスストレージ EBS EFS S3 Glacier Storage Gateway RDS Redshift ElastiCache DynamoDB (SimpleDB) ここではEFSとEBSの比較について特徴と利用方法を取り上げます。 EFSとEBSの比較 EFSはNFSでアクセス可能な共有ストレージのファイルストレージサービスで、EBSはブロックレベルのストレージサービスで、共にEC2にマウント可能なストレージです。EFSとEBSの利用比較の図については以下のようになります。 公式ページの比較表を引用させて頂くと以下のようになります。 Amazon EFS Amazon EBS PIOPS

    EFSとEBS - Qiita
  • No space left on device とエラーが出るときの対処法 - Qiita

    問題 CentOSでファイル操作をしようとすると、「No space left on device」と言われるようになった。 こうなると、もう何もできない。(Gitコマンド叩け無い、ファイル作れない等) 原因を探る エラーメッセージをそのまま読むと「このデバイス、もうスペースが無いよ」である。 HDDを使い切ってしまったのかとdfコマンドを叩いてみるが、まだ3.4Gも残っている。 色々調べているうちに、容量ではなくてinodeが足りない説が浮上した。 inodeとは、UNIX系OSで使用されるファイルシステムの名称で、ファイルの所有者やアクセス権、サイズ、作成日時、場所などを管理しているもののことだそうだ。 残りinodeはdfコマンドに-iをつければ確認できるらしく、叩いてみると...ビンゴである。

    No space left on device とエラーが出るときの対処法 - Qiita
  • 何気ないfreebsd-updateがZFSストレージプールを傷つけた - Qiita

    はじめに FreeBSDの更新をしたら正常にコマンドを実行できない状態に陥ったので、ひとまずデータだけを復旧したっていう話 経緯 以前からhp microserverにFreeBSD 10.1をインストールして、ファイルサーバとして利用していた。ストレージにはZFSを利用。そこに今回思い付きでPT3を入れて録画サーバとしても利用しようかなと思ったのが事の発端。 https://hgotoh.jp/wiki/doku.php/documents/freebsd/freebsd-019 上記URLに書いてあることを愚直に実行してPT3の関連ソフトウェアを導入していこう、と考えていたがrecpt1のautogen.shを実行するところで、autoconfとautomakeが要求されるのだが、それらのインストールでP5関連のエラーが発生し、解消しない。 海外のサイト見てると/usr/portsの下

    何気ないfreebsd-updateがZFSストレージプールを傷つけた - Qiita
  • du の結果について注意点。特に ZFS で、圧縮を効かせているとき。 - Qiita

    概要 あるシステムから別のシステムにディレクトリをコピーするときに、あらかじめ、 du -sh ディレクトリ を実行し、十分な領域があることを確認してから、コピーをした。 コピーが終わった後、コピー先で du -sh コピーしてきたディレクトリ をすると、元のサイズより、大きくなった。 原因 ZFS の圧縮機能によるものが大きいような気がしているが、そもそもduコマンドの仕様によるところもあると考えられる。。 ZFS のディスク領域の計上 - Oracle Solaris の管理: ZFS ファイルシステム そこに以下のような記述があった。 UFS ファイルシステムでは、du コマンドが、ファイル内のデータブロックのサイズを報告します。ZFS ファイルシステムでは、du コマンドが、ディスクに格納されているときのファイルの実際のサイズを報告します。このサイズにはメタデータと圧縮データも含ま

    du の結果について注意点。特に ZFS で、圧縮を効かせているとき。 - Qiita
  • zfs snapshot で発生する ZFS WARNING (error=63) - Qiita

    ZFS WARNING: Unable to create ZVOL zroot/vm/vm0001/disk0@zfs-auto-snap_hourly-2017-03-09-10h00 (error=63). ZFS WARNING: Unable to create ZVOL zroot/vm/vm0002/disk0@zfs-auto-snap_hourly-2017-03-09-10h00 (error=63). ZFS WARNING: Unable to create ZVOL zroot/vm/vm0003/disk0@zfs-auto-snap_frequent-2017-03-09-10h15 (error=63). ... zfstoolsにてスナップショットを自動で取得する際にエラーが発生している。 明確にerror=63の原因がわからない。どうも、名前が長すぎるよ

    zfs snapshot で発生する ZFS WARNING (error=63) - Qiita
  • DISKのメタデータ (zfs, GPT)を削除 - Qiita

    現象 debian8 で zfs を昔使っていた。 その後zfsを使わずext4で使っていた。 debian9 をクリーンインストールした後、blkidでUUIDが表示されないことに気がついた。 dd if=/dev/zero of=/dev/sda bs=1M count=1000 とかしても消えなかったので調査したところ、wipefsコマンドで消せることにたどり着いた。 HDD mount problem (bad FSTYPE) / System Administration / Arch Linux Forums 確認 # wipefs /dev/sda1 offset type ---------------------------------------------------------------- 0x7470abfc00 zfs_member [filesystem]

    DISKのメタデータ (zfs, GPT)を削除 - Qiita
  • �UbuntuでZFSを構築し,/homeをミラーリングする. - Qiita

    UbuntuでSSDにOSをインストールし, /homeのみRAID1のHDDに保存するメモ. SSDにOSのインストール インストールで,「その他インストール」で各自パーティションを設定する. 今回は,SSDの設定として, ルートファイルシステム・・・50GB スワップ領域・・・20GB 以上のパーティションでUbuntuをインストールする.HDDはなにもしない. Point OpenSSHを入れておくと,色々便利かも...

    �UbuntuでZFSを構築し,/homeをミラーリングする. - Qiita
  • Ubuntu 16.04 を ZFS Root でインストールすると grub-probe: error: failed to get canonical path of なんたら - Qiita

    $ sudo zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.67G 454G 96K / rpool/ROOT 730M 454G 96K none rpool/ROOT/ubuntu 730M 454G 596M / rpool/home 1.15G 454G 1.15G /home rpool/home/root 116K 454G 116K /root rpool/swap 4.25G 459G 64K - rpool/var 565M 454G 96K /var rpool/var/cache 127M 454G 127M /var/cache rpool/var/docker 437M 454G 2.44M /var/lib/docker rpool/var/docker/0aaacb3138f365e1d4c9d964a1b

    Ubuntu 16.04 を ZFS Root でインストールすると grub-probe: error: failed to get canonical path of なんたら - Qiita
  • ZFSな FreeBSDをSingle user mode で起動したときに mount -o rw,remount / が効かない時 - Qiita

    Register as a new user and use Qiita more conveniently You get articles that match your needsYou can efficiently read back useful informationYou can use dark themeWhat you can do with signing up

    ZFSな FreeBSDをSingle user mode で起動したときに mount -o rw,remount / が効かない時 - Qiita
  • ZFSを圧縮・暗号化してリモートバックアップする - Qiita

    目的 手元のサーバに保存されている一部のデータを遠隔地にあるリモートサーバにバックアップしたい。しかしリモートサーバは信頼できるユーザだけがアクセスできるとは限らないため、データを暗号化して保存する必要がある。そのため、ZFSのスナップショットをOpenSSLで暗号化する。 やりかた 前提条件 CentOS 7でZFS on Linux(0.7.3)を利用する ZFSのスナップショットを使いサービスを停止せずバックアップを転送する リモートサーバにはSSHで接続可能とする リモートサーバでZFSが利用できない可能性が高いとする 転送量を減らすため、pigzで並列して圧縮する データは送信前にOpenSSLで暗号化する バックアップはスナップショットイメージのまま保管したい スナップショットを作成済みでリモートサーバにはSSHで公開鍵認証設定済みのとき、次のコマンドでスナップショットの差分を

    ZFSを圧縮・暗号化してリモートバックアップする - Qiita
  • ZFS 重複排除 を使用して節約バックアップ (CentOS7) - Qiita

    某バックアップソフトウェアで取得していたCentOS サーバーのバックアップがある日突然エラーになり取得できなくなった。 ・メーカーサポートではRedhatしかサポートしてくれない。 ・上司お金は出したくない(とは言わないがなんとかしろとしか言わない) ・取得するサイズはトータル 180GB。 ・社内規則により世代バックアップは欲しい(日次 7日) 某バックアップソフトウェアでは重複排除により容量を25% ほどに抑えていた。 最後の要件が普通のNASではだめだったので、ZFS環境で重複排除を試してみることに。 環境:CentOS7 1.ZFS インストール rpm -ivh http://download.zfsonlinux.org/epel/zfs-release.el7_3.noarch.rpm yum install -y kernel-devel zfs reboot 2.zf

    ZFS 重複排除 を使用して節約バックアップ (CentOS7) - Qiita
  • Root on ZFS構築手順 - Qiita

    手順詳細 Live CD環境とホストOS共にopenssh-serverをインストールしてリモートから実行した。 ZFSパーティションの作成 ホストOSをインストールするディスクをパーティショニングする。 # sgdisk -n3:1M:+512M -t3:EF00 /dev/disk/by-id/ata-SanDisk_SDSSDXPS480G_161857400901 Warning: The kernel is still using the old partition table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8) The operation has completed successfully. # sgdisk -n9:-8M:0 -t

    Root on ZFS構築手順 - Qiita
  • 俺様サーバー構築記 - ZFSをarchisoに埋め込む@VirtualBox(UEFI) - Qiita

    前置きは俺様サーバー構築記 - 基方針を参照。 2019/12/25 手順が若干変わったので記事を新しく起こしました。俺様サーバー構築記 - ZFSをarchisoに埋め込む; やり直し@VirtualBox(UEFI) 参考文献 インストールガイド - ArchWiki Arch LinuxをUEFI + GPT環境にインストールする - クロの思考ノート download 今日の時点でのArchLinuxインストーラー最新版をダウンロードしました。 archlinux-2017.12.01-x86_64.iso です。 Arch Linux をダウンロードのページから、適当なミラーを選択しましょう。私は何も考えずにリストの最上位 jaist.ac.jp を選択しました。 Windows10 にインストールしてあったVirtualBoxを使用し、新規作成します。 私のVirtualBo

    俺様サーバー構築記 - ZFSをarchisoに埋め込む@VirtualBox(UEFI) - Qiita
  • ZFSでsend/recvについてのメモ - Qiita

    iSCSIのボリューム/dev/mapper/mpathaに既にZFSのプールが作成してあるが、このボリュームサイズを変更したい。暫定的に別のiSCSIボリューム/dev/mapper/mpathbにデータを移行してボリューム拡張後に再度データを戻す。その一部についてのメモ。 ZFSプールtankが既にあるときに別のZFSプールtank2を作成。

    ZFSでsend/recvについてのメモ - Qiita
  • ZFS linux + 独自カーネル - Qiita

    ZFS を Scientific Linux 6 (CentOS 6) 独自コンパイルのカーネルにインストールする Linux カーネルをパッケージで利用しているときは、 ZFS についてもレポジトリを登録後 yum install で簡単にインストールでき、問題がおきてもパッケージの削除後、再インストールでまた復活します。 ZFS は DKMS1モジュールで提供されます。さらに、ZFS は SPL2 上で動きますが、SPL も DKMS モジュールです。 ここで、新しい Linux カーネルを使いたいとかでやむなく独自でコンパイルして導入しても、DKMS の仕組みで勝手にコンパイルしてモジュールが生成されます。うまく動いているうちは。でも、独自でコンパイルカーネルで、よくわからない理由で ZFS モジュールが認識されくなった時は、パッケージの削除後、再インストールで復活するのかといえば容

    ZFS linux + 独自カーネル - Qiita
  • vm-bhyveで使っているzvolをマウントする - Qiita

    ネタ元 この記事の大部分はfreebsd-stableのアーカイブにあるreboot-less zfs volmode property refresh?に基づいている。 動機 vm-bhyveで仮想化しているVMのディスクイメージにZFS volumeを使っている時に、ホスト側からディスクの中身にアクセスしたいことがある。例えばインストールがうまく行っておらず、ブートローダの状況を確かめたい場合など。 前提 FreeBSD 11.1-RELEASE-p9 問題点 vm-bhyveでZFS volume (zvol)をディスクイメージに使うと、volmode=devで作成されているためそのままではGEOMベースのツールが使えない。たとえばgpartでGPTパーティションを見ることもできないし、マウントすることもできない。 解決法 volmode=geomを使う volmode=devになっ

    vm-bhyveで使っているzvolをマウントする - Qiita
  • zfsのrefreservationプロパティの挙動を理解する - Qiita

    お急ぎの方は「概要」→「意義」→「まとめ」と読めばそれで済みます。 動機 ZFSでデータセットの使用量制御に用いるrefreservationプロパティを調べていたら、自分の直感に反する挙動を示したので整理する。ていうか、ドキュメントをなんとかして欲しい。 前提 OpenZFS (FreeBSD 11.1-RELEASE-p9) 概要 refreservationプロパティは子孫を含まないそのデータセット自身の使用量を予約する。この「データセット自身の使用量」はREFERのことだと思いがちだが、実際にはWRITTENに相当するようである。WRITTENは最新のスナップショット以降に書き込まれ参照可能なデータの量であり、スナップショットが存在しない場合のみREFERに等しい。つまりrefreservationを設定することは、最新のスナップショット以降に上書きまたは新規に書き込み保持できるデ

    zfsのrefreservationプロパティの挙動を理解する - Qiita