並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 18 件 / 18件

新着順 人気順

cephの検索結果1 - 18 件 / 18件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

cephに関するエントリは18件あります。 Ceph分散ストレージネットワーク などが関連タグです。 人気エントリには 『「Ceph、完全に理解した」って Tweetする為のセッション ー Ceph 101 ー』などがあります。
  • 「Ceph、完全に理解した」って Tweetする為のセッション ー Ceph 101 ー

    Japan Rook Meetup #3での発表スライドです。Ceph、完全に理解した」って Tweetしてもらう為に、Cephの基本について解説しています。

      「Ceph、完全に理解した」って Tweetする為のセッション ー Ceph 101 ー
    • 【ストレージ初心者向け】分散ストレージ、Cephの速度を計る(1) - Qiita

      こんにちは。「Rookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020」6日目は、タイトルの通り、ストレージ初心者だった筆者がCephのベンチマークを計測した際に学んだストレージシステムの性能指標とCephに代表されるような分散ストレージを計測する上での特徴や注意点について簡単にまとめます。 Rookではなくてもクラウドネイティブなストレージに関する投稿であればヨシという参加条件でしたので、Rookでもよく利用されているCephをこよなく愛する筆者としては、のりと勢いだけで応募しました。ろくに熟考もせず記載しているため間違いがあれば優しくご指摘ください! はじめに さて、本記事は上記の通り、ストレージ素人だった筆者がCephのベンチマーク等を担当したときに、事前にこんな知識を知っておきたかったと感じた事柄について、記載したいと考えております。 また断り

        【ストレージ初心者向け】分散ストレージ、Cephの速度を計る(1) - Qiita
      • 分散ストレージCephのオーケストレータRookのデータ破壊バグを修正しました - Cybozu Inside Out | サイボウズエンジニアのブログ

        はじめに こんにちは、Necoプロジェクトのsatです。本記事では分散ストレージCephのオーケストレータであり、Kubernetes上で動作するRookに関するものです。このRookに存在していたデータ破壊バグを我々が検出、修正した体験談、およびそこから得られたことを読者のみなさんに共有します。本記事は以前Kubernetes Meetup Tokyo #36におけるLTで述べた問題のフォローアップという位置づけです。 speakerdeck.com "解決までの流れ(詳細)"の節以外はRookやCephについて知らなくても適宜用語を説明するなどして読めるように書きました。 Rook/Ceph固有の話にも興味があるかたは以下の記事/スライドも併せてごらんください。 blog.cybozu.io speakerdeck.com 用語 Rook/Cephについて知らないかた向けに、まずは本節

          分散ストレージCephのオーケストレータRookのデータ破壊バグを修正しました - Cybozu Inside Out | サイボウズエンジニアのブログ
        • File systems unfit as distributed storage backends: lessons from ten years of Ceph evolution | the morning paper

            File systems unfit as distributed storage backends: lessons from ten years of Ceph evolution | the morning paper
          • Rookの概要とRook-Ceph - うつぼのブログ

            この記事はRookだらけの Advent Calendar 2019 1日目の記事です。 うつぼです。Advent Calendar用にRookの記事を書きます。赤帽エンジニアブログに(勝手に)連載中のストレージオーケストレーター Rookよりも、ちょっとおとなしい感じで書こうと思います。 とは言え初日はRookの概要的なことをまとめたりRook-Cephをやってみます。赤帽エンジニアブログで書いた内容と思いっきりカブりますが、これがないと2日目以降がやりにくくなると思うので… Rookとは何か Rookとは、Kubernetesで使うストレージオーケストレーターです。 RookによってCephやEdgeFSなどのSDSや、CockroachDBやYugabyteDBといった分散データベースを、Kubernetesクラスタ上で簡単に展開して分散ストレージクラスタを作ることができます。 Ro

              Rookの概要とRook-Ceph - うつぼのブログ
            • Raspberry Piで始めるCeph入門 - Qiita

              全国1億3千万人のCephファンのみなさんこんばんは FUJITSU アドベントカレンダー 8日目の記事です 逸般的誤家庭から一般的ご家庭にCephを普及すべく、k8sを始めようと思って机の隅っこでホコリを被っているであろうRaspberry Piを活用して、RasPi Cephクラスタを始めようというのが、今回のテーマです RasPiやCephについては、周知でしょうからここでは技術的な紹介は省いて、構築をささっといきたいと思います。 前置き 今回構築するのは、 Cephクラスタ(3ノード)とRados Gateway(S3/Swift互換)(以下RGW)の構築です。 先に言っておくと、RGWをRasPiで動かそうとするとエラー吐いて落ちるので、こいつだけx86の上で動いています。 また、Cephクラスタには、ノードに1OSD/DISKが必要となりますが、これをUSBメモリで代用します。

                Raspberry Piで始めるCeph入門 - Qiita
              • Rook-CephでSSDとHDDを使い分ける - うつぼのブログ

                この記事はRookだらけの Advent Calendar 2019 3日目の記事です。 Rook-CephでSSDとHDDの使い分けの例を説明します。 SSDにOSDメタデータを分けて置く Cephをご存知の方だと、『OSDのユーザーデータとメタデータ領域は分けたほうがいい』というプラクティスを知っていると思います。 メタデータはsmall I/Oがバンバン来るのでFlashデバイスの方がいいということです。そのとおりで、特にsmall I/Oに強くないHDDにとっては性能的に望ましくないです。 CephではユーザーデータはHDDへ、メタデータだけSSDやNVMeへと分けることができるので、Rook-Cephでやってみます。 3台のworkerにそれぞれ5つのデバイスをぶら下げます。 [utubo@tutsunom ceph]$ ssh xxxxxx.compute-1.amazonaw

                  Rook-CephでSSDとHDDを使い分ける - うつぼのブログ
                • プロダクション向けRook/Cephクラスタ構築への道

                  以下イベントの発表資料です。 https://rook.connpass.com/event/202147/

                    プロダクション向けRook/Cephクラスタ構築への道
                  • Rook-Ceph OSD on PVC(後半) - うつぼのブログ

                    この記事はRookだらけの Advent Calendar 2019 7日目の記事です。 昨日はOSD on PVCのCephクラスタをデプロイできたのはいいものの、OSDがうまく散らばってくれないという問題に直面しました。 しかも織り込み済みの問題だという。今回はこの問題を回避する方法の一例を紹介します。 そういうわけで、今の時点ではマニュアルで3nodeの散らばるように書く必要がありそうです。 3nodeに散らばるようにする方法 Kubernetesにまかせてカッコよくosdを散らすのは難しそうなので、マニュアルで散らせます。 色々失敗した検討した結果、こんな感じでNode Affinityを使ったら3osdずつ散らばりました。 [utubo@tutsunom ceph]$ cat my-cluster-on-pvc.yaml apiVersion: ceph.rook.io/v1 k

                      Rook-Ceph OSD on PVC(後半) - うつぼのブログ
                    • Ceph performance — YourcmcWiki

                      Ceph is a Software-Defined Storage system. It’s very feature-rich: it provides object storage, VM disk storage, shared cluster filesystem and a lot of additional features. In some ways, it’s even unique. It could be an excellent solution which you could take for free, immediately solve all your problems, become a cloud provider and earn piles of money. However there is a subtle problem: PERFORMANC

                      • Rook-Ceph OSD on PVC(前半) - うつぼのブログ

                        この記事はRookだらけの Advent Calendar 2019 6日目の記事です。 Rook 1.1でできるようになった OSD on PVC の説明をします。 OSD on PVC ??? OSD on PVCというのは、ceph-osdをPVC から作ろうということです。 CephはブロックデバイスからOSDを作成するため、言うまでもなくceph-osdにはブロックデバイスが必要です。 osdのブロックデバイスはrook-ceph-osd Podが稼働するworker nodeから取ってくるので、事前に何らかの方法でworker nodeにブロックデバイスをattachしておかなくてはなりません。 しかしこのworker nodeにブロックデバイスをattachする作業は、Kubernetesが乗るプラットフォーム側の操作です。Kubernetesで何かしらやりようはあると思いま

                          Rook-Ceph OSD on PVC(前半) - うつぼのブログ
                        • Ceph Pool の利用可能容量の計算法 - うつぼのブログ

                          こんにちは、うつぼです。 今日は小ネタで Ceph の capacity usage について説明します。 Ceph はどれくらいの容量が使えるのか分かりづらいことで定評があります。 いや分かることは分かるんですが、「なんでそーなるの?」と欽ちゃんライクになる人もいるでしょう。今日はそこを紐解いていきましょう。 ceph df を見ていく ceph df の出力 まず、Ceph の Pool の capacity usage は、ceph df コマンドで見ることができます。 0.5 TiB (512 GiB) の osd を1つだけ持つシンプルな 3 node の Ceph クラスターを用意します。直後に、 3x replicated pool 2x replicated pool 2+1 erasure coded pool の3つの Pool を作り、ceph df を実行してみます

                            Ceph Pool の利用可能容量の計算法 - うつぼのブログ
                          • Cephの紹介 - うつぼのブログ

                            この記事はRookだらけの Advent Calendar 2019 2日目の記事です。 Rookとは少し離れますが、Cephの説明をしたいと思います。 Ceph Cephの特徴はググればたくさん出てくるので、詳しく知りたい人はググって下さい。ざっくり簡単に書きます。 オープンソースのSoftware-Defined Storage Object, Block, Fileのユースケースに対応するUnified Storage 標準的なHWでクラスターを構成する、Scale-Out型アーキテクチャー ペタバイト級に対応する高いScalability Cloud Infrastructure, CDN, Data Lakeなど新しいワークロードに適したソフトウェアデザイン Self-serviceのストレージ管理を実現するManagement APIの提供 RADOS RADOSとはRelia

                              Cephの紹介 - うつぼのブログ
                            • Kubernetesの監視#2 Elastiecsearch & Kibana on ROOK Ceph - Qiita

                              ROOK Ceph の永続ストレージを利用したアプリケーション利用としてログ分析基盤を導入してみたい。これまで ROOK Ceph のブロックストレージを検証したメモのQiita記事でROOK Cephのストレージを構築して、永続ストレージを利用したアプリケーションとしてKubernetesの監視#1 Promethus & Grafana on ROOK Cephでメトリックス監視を構築した。この記事では、ログ分析 エラスティックサーチ(Elastiecsearch) とブラウザUI キバナ (Kibana)を導入してみたい。 Elastiecsearchとサンプルアプリの名前空間作成 Elastiecsearch や Guestbook など複数のアプリケーションを Kubernetesクラスタへデプロイして運用する場合、必ず専用の名前空間を作成して、その中で動作させるのが良い。名前空

                                Kubernetesの監視#2 Elastiecsearch & Kibana on ROOK Ceph - Qiita
                              • Rook/Cephのオブジェクトストレージ ~ 現在と将来

                                はじめに 本記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 5日目の記事です。Rook/Cephのオブジェクトストレージのこれまでとこれから、とくにインタフェースについて述べます。まずはCephのオブジェクトストレージについて軽く触れた後に、Rookにおいてオブジェクトストレージをどのように使うのか、今後はどうなるのか、という順番で説明します。 Cephのオブジェクトストレージ CephはRadosGW(RGW)という機能名でオブジェクトストレージをサポートしています。インタフェースはS3互換のものとSwift互換のものの二つを提供しています。Cephの中心部にはRADOSという名前の独自形式のオブジェクトストレージシステムが存在していて、この機能はそれと一般によく使われている前述のインタフェースとのゲートウェイなので"Rados" "

                                  Rook/Cephのオブジェクトストレージ ~ 現在と将来
                                • Ceph MultiSiteをやってみる - 赤帽エンジニアブログ

                                  この記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 4日目の記事です。 お久しぶりです。レッドハットでストレージを中心にクラウドインフラを生業にしている宇都宮です。 去年のアドベントカレンダーぶりかもしれませんね、今年もがんばってやってますので、ストレージ愛が五臓六腑に沁み渡るみなさんのブログを楽しんで下さいね!今日はRookのブログから閑話休題で、CephのMultiSiteについて書いていきます。 qiita.com あとRookのTwitterアカウント、@japan_rookのフォローお願いしまーす! サイト障害に耐えるためのサイト間レプリケーション 一般的にオブジェクトストレージサービスはサイト障害に耐えられるよう、バックグラウンドでサイト間レプリケーション等が行われていることが多いと思います。 正直オブジェクトストレージはブ

                                    Ceph MultiSiteをやってみる - 赤帽エンジニアブログ
                                  • Home - Ceph

                                    The Future of Storage™Ceph is an open-source, distributed storage system. Discover Ceph Reliable and scalable storage designed for any organizationUse Ceph to transform your storage infrastructure. Ceph provides a unified storage service with object, block, and file interfaces from a single cluster built from commodity hardware components. Deploy or manage a Ceph clusterDeploy Ceph now. Use the li

                                      Home - Ceph
                                    • Proxmox VE 6.1でCephをインストール | fefcc.net

                                      最初に 前記事からの続きになりますので PC3台ともにProxmox VE 6.1-5でクラスタ構築済です Cephについて Proxmoxで共有ストレージを使う場合はESXi同様にiSCSIやNFSに対応 他にもCIFSやGlusterFS・Cephにも対応していますが おすすめされているのはZFS over iSCSIかCeph/RBDになります 今回はProxmoxのWEBGUIにも組み込まれているCeph/RBDを試すことにしました Ceph自体は分散ストレージシステムになっていて VMwareでいうvSAN的なシステムが組める為 VMのライブマイグレーション対応はもちろんのこと 単一障害点を排除できるのが最大のメリットになります デメリットはvSAN同様にシステム要件になります Cephをまともに使おうとするとよく言われるのは PC3台以上・CPUはそこそこで大丈夫ですがメモリは

                                        Proxmox VE 6.1でCephをインストール | fefcc.net
                                      1

                                      新着記事