タグ

RAIDに関するsteropeのブックマーク (11)

  • WDがNAS向けシリーズ「WD Red」で起こした問題は「沈黙し続ける企業文化そのもの」が原因との指摘

    大手HDDベンダーのWestern Digital(WD)が製造するNAS向けHDDシリーズ「WD Red」の記録方式が表記なくSMR方式に変更されていた問題について、IT関連のプロフェッショナル向け情報を発信している「ServeTheHome」で記者を務めるパトリック・ケネディ氏が「WDの企業文化に問題がある」と指摘しています。 WD Red DM-SMR Update 3 Vendors Bail and WD Knew of ZFS Issues https://www.servethehome.com/wd-red-dm-smr-update-3-vendors-bail-and-wd-knew-of-zfs-issues/ WD Red DM-SMR Update 3 Vendors Bail and WD Knew of ZFS Issues | Page 2 of 2 htt

    WDがNAS向けシリーズ「WD Red」で起こした問題は「沈黙し続ける企業文化そのもの」が原因との指摘
  • WDのNAS向けHDD「WD Red」の記録方式が「RAIDに不向き」な仕様にこっそり変更されていたことが判明

    大手HDDメーカーであるWestern Digital(WD)のNAS用HDDシリーズ「WD Red」の記録方式が、モデルチェンジの際にランダムライトアクセスに不向きとされるSMR方式に表記なく変更されており、WD Redシリーズを用いたRAIDの再同期に問題が生じるケースがあるとストレージに関するニュースサイト「Blocks & Files」が報じています。 Western Digital admits 2TB-6TB WD Red NAS drives use shingled magnetic recording – Blocks and Files https://blocksandfiles.com/2020/04/14/wd-red-nas-drives-shingled-magnetic-recording/ Seagate 'submarines' SMR into 3 B

    WDのNAS向けHDD「WD Red」の記録方式が「RAIDに不向き」な仕様にこっそり変更されていたことが判明
  • 三菱UFJニコスのシステム障害の原因が判明、3個のHDDが同時に故障

    マスターデータから中間加工ファイルを作成するバッチ処理のシステムでHDDが故障し、障害が発生した。三菱UFJニコスによれば、HDD15個で一連の機能を果たしており、そのうち3個が同時に故障した。「2個までの同時障害は自動復旧可能な仕組みを設けていたが、3個の故障は想定外だった」(広報)。同社はシステムやHDDの開発企業を明らかにしていないものの、「発生確率は極めて低いとの報告を受けている」という。 故障したHDDは、障害が発生した2017年12月26日中に交換したが、利用会員の売上データ処理などに遅れが発生した。一部の利用会員に2重請求が発生したほか、請求が遅れるなどの事態につながった。同社はシステム機器の監視体制を強化するなどして対策を講じるという。

    三菱UFJニコスのシステム障害の原因が判明、3個のHDDが同時に故障
  • 自宅サーバーHDD増設、12TBへ。パーツ相性で久しぶりに苦労した話。 | しま★りん.blog @ayurina

    ディスクが足りない、って状況はしばらく前から発生していたんですが、どうやって解決するか、かれこれ数ヶ月悩んで、結局、SATA IFボード(SATA3RI4-PCIE)&HDD(WD20EZRX)追加導入となりました。やっと動き出したんですが、今回はなんだか大変だった。という、お話。 我が家のサーバー環境 まずは起きていたこと。地デジサーバーのHDDが壊れて、もういやになって3TB×2のRAID構成で信頼性と容量を確保したのが、先月の話。そもそもなんでこんな事態を招いたかといえば、原因は母艦となっているファイルサーバーの容量不足です。 我が家の母艦サーバーは仮想化環境で、システムボリュームSSDで64GB、データ領域として、2TB HDD×7×RAID6で10TBの容量になっています。このデータ領域のうちの2TBは汎用エリア(TimeCapsuleとか、仮想マシンのシステムボリュームとか、い

    自宅サーバーHDD増設、12TBへ。パーツ相性で久しぶりに苦労した話。 | しま★りん.blog @ayurina
  • LinuxRAID1Recovering – アクセンスのおまけ

    LinuxのソフトウェアRAIDで助かった! id:kazushi_nakamura氏といっしょに個人的に運用しているサーバ(メールとウェブとDNS)のディスクが壊れたのです。 ディスクが壊れても真っ青になったり、喪失感に襲われて腑抜けになったりもしていないのは、まさにRAID1のおかげでした。 実はね、年末の28日あたりに/dev/sdbがすっとんで、その旨の警告メールが届いていたのです。 ところが僕のかしこいスパムフィルタは、その短くて素っ気ないメールを「迷惑メール?」フォルダに分類してやがりました。 はい。ごめんなさい。ホワイトリスト、がんばってデプロイしますです。 メールに気づいたのが正月明けて2日。 ディスクの交換が終わって定常運転に戻ったのが先ほど、4日の夜でした。 その間、RAID1なのにドライブ1台で動いていたのです。恐い恐い。 同時期に購入したドライブ2台なので、同時期に

  • Droboの仕組みが分からない? ならば特許を見よう (1/4)

    2015年から始めた連載『プリンストンが販売する高機能ストレージ「Drobo」を活用しよう』だが、ついに2017年に突入した。当初は「半年くらいかなあ?」と考えていたので、これほど長く続けさせてもらえるとは思わなかった。ありがたいことである。Droboの各機種の紹介は、最新のエントリーモデルDrobo 5Cから、家庭向けというよりはSOHO向けに近いDrobo B810nまで網羅したし、プリンストンへの突撃取材もした。さて次はどうしよう? と思案に暮れる昨年(2016年)末であった。 そうしたら、ASCII.jpの編集から「特許情報を元にBeyond RAIDの解説してください」とのオーダーが。マジかよ…… 以前調べてみようと思って、特許公告の資料はダウンロード済みだったのだが、70ページもあるうえに、当然英語だし……。 日語でも英語でも特許公告の文書というのは、たいがい分かりづらいの

    Droboの仕組みが分からない? ならば特許を見よう (1/4)
  • ssig33.com - WD Green や Seagate の HDD の故障率

    表題の件について、個人ユーザーが「WD Green や Seagate はすぐ壊れるからだめ」みたいなことを言っているのをよく見ますが、 頻繁に電源を入れたり切ったりする個人ユーザーではありがちな環境 ほこりが多かったり住宅の環境自体が悪い 運用が適当 といった問題で故障率は大幅に上昇しますから、 HDD に何選ぼうが大してかわりゃしません。そして何より HDD の故障の原因となるのは、システムに繋がず電源切ったまま放置しておくことです。壊したくなければ常に電源入れときましょう。 そして HDD の故障率云々以上に rm コマンド間違えて打ったとかによるデータロストのリスクの方がはるかに大きいのではないでしょうか。 運用環境が悪いのを WD Green や Seagate のせいにするな、 WD Green はソフトウェア RAID なら特に問題はない、黙って一番安いのを買え。壊れたら H

  • 構築済みのRAIDZを、ディスクを交換しながら容量を拡張した(1:きっかけ) – Cheerfull days

    うちのファイルサーバーは、FreeBSDを使って 2.5TB×4でRAIDZ(ZFSを使ったRAID5)で7.5TBの大容量を誇っていた。このたび手狭になったのと後述の理由により、HDDを新調して容量を拡張した時の作業記録を記す。 読んでられない人向けのまとめです。 RAIDZは、HDDを全部大きいものに入れ替えてから「zpool online -e (ディスクのうちの1つ)」するとアレイの容量を拡張できます。HDDを入れ替えるときは、古いHDDを外して付け替えるのではなく、外付けHDDケースなどを使って、古いHDDと新しいHDDが同時に見える状態で「zpool replace」しましょう。HP Proliant Microserver固有の問題もありました。次回 実は以前からディスクに不良が出ており、zpool scrubすると、read/writeエラーこそ出ないがchecksumにエ

  • はてなブログ | 無料ブログを作成しよう

    週報 2024/04/28 川はただ流れている 4/20(土) 初期値依存性 さいきん土曜日は寝てばかり。平日で何か消耗しているらしい。やったことと言えば庭いじりと読書くらい。 ベランダの大改造をした。 サンドイッチ 一年前に引っ越してからこんな配置だったのだけど、さいきん鉢を増やしたら洗濯担当大臣の氏…

    はてなブログ | 無料ブログを作成しよう
  • ZFSのRAIDZの修復とついでに拡張する - Qiita

    ZFSのプールを使っていると、作ったあとにHDDが壊れたり、容量を増加したくなることがあります。その時に、慌てないように事前に調査と演習をしたのでその備忘録的なものをまとめてみました。 容量の拡張は、ZFSでミラー(RAID0)にやったことがあるのですが、RAIDZは初めてです。 普通のRAIDでだと別のRAIDセットを作りコピーするとかが必要になります。 ZFSだと、無停止で拡張できるのではないかと思いブートボリュームでできないかやってみました。 実行環境はXenServer上でFreeBSD 10.3でやってみました。 準備 FreeBSD 10.3を用意する。 Boot Volume用として8Gバイトのストレージを3個用意する FreeBSD 10.3のインストラーで自動でRAIDZでZFSを作る ブートボリュームzrootが/dev/ada[012]で出来ているはずです。 /dev

    ZFSのRAIDZの修復とついでに拡張する - Qiita
  • %E8%87%AA%E5%AE%85%E3%81%A7%E5%A4%A7%E5%AE%B9%E9%87%8F%E3%82%B9%E3%83%88%E3%83%AC%E3%83%BC%E3%82%B8%E3%82%92%E9%81%8B%E7%94%A8%E3%81%99%E3%82%8B

    前回 RAID に関するちょっとした話を書きましたが個人が巨大なストレージを運用するにあたって得られたノウハウをだいたい全部書いておきます。 そもそもメリットあるのか? メリットはあります。金です。 Google Drive は安いですが、それでも 1TB 月 1000 円です。しかし運用にかなり制限がでます。柔軟に使える Amazon Web Service ならその 3 倍+転送量課金です。 16TB だと月 5 万円もかかってしまいます。ちなみにもっとも柔軟に使える EBS だと 16TB で 83000 円ぐらいです。 Google Compute Engine の低冗長性ストレージは S3 より少し安かった気はするけど別にとても安いわけではなかったと思う(よく覚えていないし調べるのがめんどくさい)。 50TB のストレージを Google Drive でごまかしごまかし運用したと

  • 1