Japan Rook Meetup #3での発表スライドです。Ceph、完全に理解した」って Tweetしてもらう為に、Cephの基本について解説しています。
こんにちは。「Rookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020」6日目は、タイトルの通り、ストレージ初心者だった筆者がCephのベンチマークを計測した際に学んだストレージシステムの性能指標とCephに代表されるような分散ストレージを計測する上での特徴や注意点について簡単にまとめます。 Rookではなくてもクラウドネイティブなストレージに関する投稿であればヨシという参加条件でしたので、Rookでもよく利用されているCephをこよなく愛する筆者としては、のりと勢いだけで応募しました。ろくに熟考もせず記載しているため間違いがあれば優しくご指摘ください! はじめに さて、本記事は上記の通り、ストレージ素人だった筆者がCephのベンチマーク等を担当したときに、事前にこんな知識を知っておきたかったと感じた事柄について、記載したいと考えております。 また断り
はじめに こんにちは、Necoプロジェクトのsatです。本記事では分散ストレージCephのオーケストレータであり、Kubernetes上で動作するRookに関するものです。このRookに存在していたデータ破壊バグを我々が検出、修正した体験談、およびそこから得られたことを読者のみなさんに共有します。本記事は以前Kubernetes Meetup Tokyo #36におけるLTで述べた問題のフォローアップという位置づけです。 speakerdeck.com "解決までの流れ(詳細)"の節以外はRookやCephについて知らなくても適宜用語を説明するなどして読めるように書きました。 Rook/Ceph固有の話にも興味があるかたは以下の記事/スライドも併せてごらんください。 blog.cybozu.io speakerdeck.com 用語 Rook/Cephについて知らないかた向けに、まずは本節
この記事はRookだらけの Advent Calendar 2019 1日目の記事です。 うつぼです。Advent Calendar用にRookの記事を書きます。赤帽エンジニアブログに(勝手に)連載中のストレージオーケストレーター Rookよりも、ちょっとおとなしい感じで書こうと思います。 とは言え初日はRookの概要的なことをまとめたりRook-Cephをやってみます。赤帽エンジニアブログで書いた内容と思いっきりカブりますが、これがないと2日目以降がやりにくくなると思うので… Rookとは何か Rookとは、Kubernetesで使うストレージオーケストレーターです。 RookによってCephやEdgeFSなどのSDSや、CockroachDBやYugabyteDBといった分散データベースを、Kubernetesクラスタ上で簡単に展開して分散ストレージクラスタを作ることができます。 Ro
全国1億3千万人のCephファンのみなさんこんばんは FUJITSU アドベントカレンダー 8日目の記事です 逸般的誤家庭から一般的ご家庭にCephを普及すべく、k8sを始めようと思って机の隅っこでホコリを被っているであろうRaspberry Piを活用して、RasPi Cephクラスタを始めようというのが、今回のテーマです RasPiやCephについては、周知でしょうからここでは技術的な紹介は省いて、構築をささっといきたいと思います。 前置き 今回構築するのは、 Cephクラスタ(3ノード)とRados Gateway(S3/Swift互換)(以下RGW)の構築です。 先に言っておくと、RGWをRasPiで動かそうとするとエラー吐いて落ちるので、こいつだけx86の上で動いています。 また、Cephクラスタには、ノードに1OSD/DISKが必要となりますが、これをUSBメモリで代用します。
この記事はRookだらけの Advent Calendar 2019 3日目の記事です。 Rook-CephでSSDとHDDの使い分けの例を説明します。 SSDにOSDメタデータを分けて置く Cephをご存知の方だと、『OSDのユーザーデータとメタデータ領域は分けたほうがいい』というプラクティスを知っていると思います。 メタデータはsmall I/Oがバンバン来るのでFlashデバイスの方がいいということです。そのとおりで、特にsmall I/Oに強くないHDDにとっては性能的に望ましくないです。 CephではユーザーデータはHDDへ、メタデータだけSSDやNVMeへと分けることができるので、Rook-Cephでやってみます。 3台のworkerにそれぞれ5つのデバイスをぶら下げます。 [utubo@tutsunom ceph]$ ssh xxxxxx.compute-1.amazonaw
この記事はRookだらけの Advent Calendar 2019 7日目の記事です。 昨日はOSD on PVCのCephクラスタをデプロイできたのはいいものの、OSDがうまく散らばってくれないという問題に直面しました。 しかも織り込み済みの問題だという。今回はこの問題を回避する方法の一例を紹介します。 そういうわけで、今の時点ではマニュアルで3nodeの散らばるように書く必要がありそうです。 3nodeに散らばるようにする方法 Kubernetesにまかせてカッコよくosdを散らすのは難しそうなので、マニュアルで散らせます。 色々失敗した検討した結果、こんな感じでNode Affinityを使ったら3osdずつ散らばりました。 [utubo@tutsunom ceph]$ cat my-cluster-on-pvc.yaml apiVersion: ceph.rook.io/v1 k
この記事はRookだらけの Advent Calendar 2019 6日目の記事です。 Rook 1.1でできるようになった OSD on PVC の説明をします。 OSD on PVC ??? OSD on PVCというのは、ceph-osdをPVC から作ろうということです。 CephはブロックデバイスからOSDを作成するため、言うまでもなくceph-osdにはブロックデバイスが必要です。 osdのブロックデバイスはrook-ceph-osd Podが稼働するworker nodeから取ってくるので、事前に何らかの方法でworker nodeにブロックデバイスをattachしておかなくてはなりません。 しかしこのworker nodeにブロックデバイスをattachする作業は、Kubernetesが乗るプラットフォーム側の操作です。Kubernetesで何かしらやりようはあると思いま
この記事はRookだらけの Advent Calendar 2019 2日目の記事です。 Rookとは少し離れますが、Cephの説明をしたいと思います。 Ceph Cephの特徴はググればたくさん出てくるので、詳しく知りたい人はググって下さい。ざっくり簡単に書きます。 オープンソースのSoftware-Defined Storage Object, Block, Fileのユースケースに対応するUnified Storage 標準的なHWでクラスターを構成する、Scale-Out型アーキテクチャー ペタバイト級に対応する高いScalability Cloud Infrastructure, CDN, Data Lakeなど新しいワークロードに適したソフトウェアデザイン Self-serviceのストレージ管理を実現するManagement APIの提供 RADOS RADOSとはRelia
こんにちは、うつぼです。 今日は小ネタで Ceph の capacity usage について説明します。 Ceph はどれくらいの容量が使えるのか分かりづらいことで定評があります。 いや分かることは分かるんですが、「なんでそーなるの?」と欽ちゃんライクになる人もいるでしょう。今日はそこを紐解いていきましょう。 ceph df を見ていく ceph df の出力 まず、Ceph の Pool の capacity usage は、ceph df コマンドで見ることができます。 0.5 TiB (512 GiB) の osd を1つだけ持つシンプルな 3 node の Ceph クラスターを用意します。直後に、 3x replicated pool 2x replicated pool 2+1 erasure coded pool の3つの Pool を作り、ceph df を実行してみます
はじめに 昨年、Kubernetes上でCloud Native Storageを実現するRookについて調査しました。Rookは複数のストレージソフトウェアを統合しますが、最もよく使われるものがCephです。Rookについて調査・検証をするうちに、そもそもCephの動きを理解していない中でRookの理解を進めることが難しいと感じていたので、Cephについて調査しました。Cephは10年以上前に登場したストレージシステムのため、様々な書籍や記事でその機能や裏側の動きが紹介されています。今回はそれらの記事や論文、公式ドキュメントを眺めたうえでまとめ、自身のCephへの理解を深める第一歩として公開しました。誤った理解や記載がある場合は、ご連絡いただければ幸いです。 Cephとは オープンソースな統合的ストレージシステム オブジェクトストレージ・ブロックストレージ・ファイルストレージを提供 高信
ROOK Ceph の永続ストレージを利用したアプリケーション利用としてログ分析基盤を導入してみたい。これまで ROOK Ceph のブロックストレージを検証したメモのQiita記事でROOK Cephのストレージを構築して、永続ストレージを利用したアプリケーションとしてKubernetesの監視#1 Promethus & Grafana on ROOK Cephでメトリックス監視を構築した。この記事では、ログ分析 エラスティックサーチ(Elastiecsearch) とブラウザUI キバナ (Kibana)を導入してみたい。 Elastiecsearchとサンプルアプリの名前空間作成 Elastiecsearch や Guestbook など複数のアプリケーションを Kubernetesクラスタへデプロイして運用する場合、必ず専用の名前空間を作成して、その中で動作させるのが良い。名前空
はじめに 本記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 5日目の記事です。Rook/Cephのオブジェクトストレージのこれまでとこれから、とくにインタフェースについて述べます。まずはCephのオブジェクトストレージについて軽く触れた後に、Rookにおいてオブジェクトストレージをどのように使うのか、今後はどうなるのか、という順番で説明します。 Cephのオブジェクトストレージ CephはRadosGW(RGW)という機能名でオブジェクトストレージをサポートしています。インタフェースはS3互換のものとSwift互換のものの二つを提供しています。Cephの中心部にはRADOSという名前の独自形式のオブジェクトストレージシステムが存在していて、この機能はそれと一般によく使われている前述のインタフェースとのゲートウェイなので"Rados" "
この記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 4日目の記事です。 お久しぶりです。レッドハットでストレージを中心にクラウドインフラを生業にしている宇都宮です。 去年のアドベントカレンダーぶりかもしれませんね、今年もがんばってやってますので、ストレージ愛が五臓六腑に沁み渡るみなさんのブログを楽しんで下さいね!今日はRookのブログから閑話休題で、CephのMultiSiteについて書いていきます。 qiita.com あとRookのTwitterアカウント、@japan_rookのフォローお願いしまーす! サイト障害に耐えるためのサイト間レプリケーション 一般的にオブジェクトストレージサービスはサイト障害に耐えられるよう、バックグラウンドでサイト間レプリケーション等が行われていることが多いと思います。 正直オブジェクトストレージはブ
The Future of Storage™Ceph is an open-source, distributed storage system. Discover Ceph Reliable and scalable storage designed for any organizationUse Ceph to transform your storage infrastructure. Ceph provides a unified storage service with object, block, and file interfaces from a single cluster built from commodity hardware components. Deploy or manage a Ceph clusterDeploy Ceph now. Use the li
最初に 前記事からの続きになりますので PC3台ともにProxmox VE 6.1-5でクラスタ構築済です Cephについて Proxmoxで共有ストレージを使う場合はESXi同様にiSCSIやNFSに対応 他にもCIFSやGlusterFS・Cephにも対応していますが おすすめされているのはZFS over iSCSIかCeph/RBDになります 今回はProxmoxのWEBGUIにも組み込まれているCeph/RBDを試すことにしました Ceph自体は分散ストレージシステムになっていて VMwareでいうvSAN的なシステムが組める為 VMのライブマイグレーション対応はもちろんのこと 単一障害点を排除できるのが最大のメリットになります デメリットはvSAN同様にシステム要件になります Cephをまともに使おうとするとよく言われるのは PC3台以上・CPUはそこそこで大丈夫ですがメモリは
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く