並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 141 件 / 141件

新着順 人気順

Cephの検索結果121 - 141 件 / 141件

  • Ceph

    Linuxカーネル2.6.34で標準実装されたファイルシステム。複数のストレージシステムに対して、データを分散管理する仕組みを実現する。クライアントは、通常のファイルシステムと同じ使い勝手のまま、ペタバイトという大規模な分散ファイルシステムを利用可能になる。ただし、Linuxカーネルに組み込まれたとは言え現段階では安定して動作せず、試験的な実装という位置づけにある。米IBM社の技術者が開発を進めている。 「メタデータ・サーバー」「オブジェクト・ストレージ・クラスター」「クラスター・モニター」の3つのサーバーで構成している。メタデータ・サーバーは、ファイルの保管場所(メタデータ)を管理するサーバーである。オブジェクト・ストレージ・クラスターは、ファイルの保存場所となる。クラスター・モニターは、すべてのクラスターを監視して障害を検知する役割を担っている。クライアントは、メタデータ・サーバーと連

      Ceph
    • Ceph - Wikipedia

      Science and technology[edit] Ceph (software), a distributed data storage platform Cephalopod, any member of the molluscan class Cephalopoda Cephalanthera, a genus of orchids Organizations[edit] Council on Education for Public Health, a US agency Fondation Jean Dausset-CEPH, a genetic research center, formerly the Centre d'Etude du Polymorphisme Humain Cephalon (NASDAQ: CEPH), a former American bio

      • Ceph のプロセス配置ベストプラクティス

        Ceph はブロック型の分散ストレージファイルシステムです。POSIX のファイルシステ ムとしてマウント出来ます。Linux の Kernel ドライバや FUSE ドライバを用いてマウ ントします。またブロックデバイスとしてマウントする方法もあります。 だいぶ前ですが、Ceph に関する記事を以前下記の通り書きました。 http://jedipunkz.github.io/blog/2013/05/25/ceph-cluster-network/ http://jedipunkz.github.io/blog/2013/05/11/ceph-deploy/ Ceph の構築方法について記したブログだったのですが、今まで mon, osd, mds の各プ ロセスをそれぞれ何台のノードに対して配置し、またそれぞれのプロセス幾つを何に対 して配置するのか?という疑問が付きまとわっていました

          Ceph のプロセス配置ベストプラクティス
        • Rook/Cephのオブジェクトストレージ ~ 現在と将来

          はじめに 本記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 5日目の記事です。Rook/Cephのオブジェクトストレージのこれまでとこれから、とくにインタフェースについて述べます。まずはCephのオブジェクトストレージについて軽く触れた後に、Rookにおいてオブジェクトストレージをどのように使うのか、今後はどうなるのか、という順番で説明します。 Cephのオブジェクトストレージ CephはRadosGW(RGW)という機能名でオブジェクトストレージをサポートしています。インタフェースはS3互換のものとSwift互換のものの二つを提供しています。Cephの中心部にはRADOSという名前の独自形式のオブジェクトストレージシステムが存在していて、この機能はそれと一般によく使われている前述のインタフェースとのゲートウェイなので"Rados" "

            Rook/Cephのオブジェクトストレージ ~ 現在と将来
          • Ceph and GlusterFS Advent Calendar 2014 Opening - Qiita

            「Ceph」や「GlusterFS」の名前を聞いたことがありますか? この2つは、ソフトウェアによる分散ストレージの仲間です。HadoopのHDFSやGoogle File Systemの仲間です。 HDFSとの違いはなんでしょうか?それは、CephもGlusterFSも「データの格納場所」としての使い方がメインであることです。HDFSはMapReduceの処理を効率よく行うために設計されていますが、CephとGlusterFSは、普通にマウントして、共有ファイルサーバーとして利用することを目的に設計・開発されました。 どちらも2000年代前半から開発に着手して、現在に至っています。 Cephは、途中で共有ファイルサーバーとしての使い方よりも、AWS S3のようなオブジェクトストレージや、EBSのようなブロックストレージへの対応を先に行いました。その結果、一つのストレージプールをオブジェク

              Ceph and GlusterFS Advent Calendar 2014 Opening - Qiita
            • Ceph MultiSiteをやってみる - 赤帽エンジニアブログ

              この記事はRookと仲間たち、クラウドネイティブなストレージの Advent Calendar 2020 4日目の記事です。 お久しぶりです。レッドハットでストレージを中心にクラウドインフラを生業にしている宇都宮です。 去年のアドベントカレンダーぶりかもしれませんね、今年もがんばってやってますので、ストレージ愛が五臓六腑に沁み渡るみなさんのブログを楽しんで下さいね!今日はRookのブログから閑話休題で、CephのMultiSiteについて書いていきます。 qiita.com あとRookのTwitterアカウント、@japan_rookのフォローお願いしまーす! サイト障害に耐えるためのサイト間レプリケーション 一般的にオブジェクトストレージサービスはサイト障害に耐えられるよう、バックグラウンドでサイト間レプリケーション等が行われていることが多いと思います。 正直オブジェクトストレージはブ

                Ceph MultiSiteをやってみる - 赤帽エンジニアブログ
              • Announcing Ansible playbooks for Ceph! | Sébastien Han

                Mar 3rd, 2014 | Comments | Tag: ceph Announcing Ansible playbooks for Ceph! Ceph: cow based deployment with Ansible :-). I am delighted to announce that I achieved the Ansible playbook to deploy Ceph. I. The playbookThe playbook is available on the Ceph Github. What does it do? Authentication (cephx), this can be disabled. Supports cluster public and private network. Monitors deployment. You can e

                • Publications - Ceph

                  Publications About Ceph ¶Ceph began as research at the Storage Systems Research Centre at the University of California, Santa Cruz, funded by a grant from Lawrence Livermore, Sandia and Los Alamos National Laboratories. Following the original publication on Ceph, the PhD thesis by Sage Weil, a variety of publications about scalable storage systems have been published. Books ¶Ceph Cookbook – Second

                    Publications - Ceph
                  • Running Ceph inside Docker

                    Ceph is a fully open source distributed object store, network block device, and file system designed for reliability, performance, and scalability from terabytes to exabytes. Ceph utilizes a novel placement algorithm (CRUSH), active storage nodes, and peer-to-peer gossip protocols to avoid the scalability and reliability problems associated with centralized controllers and lookup tables. Ceph is p

                      Running Ceph inside Docker
                    • Kubernetesの監視#2 Elastiecsearch & Kibana on ROOK Ceph - Qiita

                      ROOK Ceph の永続ストレージを利用したアプリケーション利用としてログ分析基盤を導入してみたい。これまで ROOK Ceph のブロックストレージを検証したメモのQiita記事でROOK Cephのストレージを構築して、永続ストレージを利用したアプリケーションとしてKubernetesの監視#1 Promethus & Grafana on ROOK Cephでメトリックス監視を構築した。この記事では、ログ分析 エラスティックサーチ(Elastiecsearch) とブラウザUI キバナ (Kibana)を導入してみたい。 Elastiecsearchとサンプルアプリの名前空間作成 Elastiecsearch や Guestbook など複数のアプリケーションを Kubernetesクラスタへデプロイして運用する場合、必ず専用の名前空間を作成して、その中で動作させるのが良い。名前空

                        Kubernetesの監視#2 Elastiecsearch & Kibana on ROOK Ceph - Qiita
                      • 米Red Hatがオープンソース分散ストレージCephベンダーの米Inktankを買収へ | OSDN Magazine

                        米Red Hatは4月30日(米国時間)、オープンソースの分散ストレージソフトウェア「Ceph」のベンダーである米Inktankを買収することで合意したことを発表した。買収金額は1億7500万ドルで、これによりソフトウェア定義ストレージのリーダーに立つとしている。 Cephはオープンソースのソフトウェア定義ストレージシステム(ソフトウェアベースで柔軟に構成を変更できるストレージシステム)で、オブジェクト/ブロックストレージ、ファイルシステムなどの要素を備える。一般的なハードウェア上で利用でき、拡張性の高いストレージシステムを構築できるなどの特徴を持つ。 InktankはCephを開発したSage Weil氏が創業したベンチャー企業で、Weil氏は現在CTOを務めている。Cisco Systems、欧州原子核研究機構(CERN)などを顧客に持つという。 Red Hatは分散ファイルシステムの

                          米Red Hatがオープンソース分散ストレージCephベンダーの米Inktankを買収へ | OSDN Magazine
                        • Ceph IO patterns: the ugly | Sébastien Han

                          Feb 24th, 2014 | Comments | Tag: ceph Ceph IO patterns: the ugly Ceph IO patterns analysis final part: The Ugly. Before starting, I would like to step back a little bit. What I’m going to expose is not only Ceph related but more general to distributed storage system. So yes, this is ugly but it is not only for Ceph, so please keep this in mind. The uglyI.1. IO patterns on RBD One IO into Ceph lead

                          • Ceph - Ceph wiki

                            Ceph is a distributed file system designed for reliability, scalability, and performance. The storage system consists of some (potentially large) number of storage servers (bricks), a smaller set of metadata server daemons, and a few monitor daemons for managing cluster membership and state. Ceph is under heavy development, and is not yet suitable for any uses other than benchmarking and review. I

                            • Home - Ceph

                              The Future of Storage™Ceph is an open-source, distributed storage system. Discover Ceph Reliable and scalable storage designed for any organizationUse Ceph to transform your storage infrastructure. Ceph provides a unified storage service with object, block, and file interfaces from a single cluster built from commodity hardware components. Deploy or manage a Ceph clusterDeploy Ceph now. Use the li

                                Home - Ceph
                              • GitHub - ceph/ceph: Ceph is a distributed object, block, and file storage platform

                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                  GitHub - ceph/ceph: Ceph is a distributed object, block, and file storage platform
                                • Proxmox VE 6.1でCephをインストール | fefcc.net

                                  最初に 前記事からの続きになりますので PC3台ともにProxmox VE 6.1-5でクラスタ構築済です Cephについて Proxmoxで共有ストレージを使う場合はESXi同様にiSCSIやNFSに対応 他にもCIFSやGlusterFS・Cephにも対応していますが おすすめされているのはZFS over iSCSIかCeph/RBDになります 今回はProxmoxのWEBGUIにも組み込まれているCeph/RBDを試すことにしました Ceph自体は分散ストレージシステムになっていて VMwareでいうvSAN的なシステムが組める為 VMのライブマイグレーション対応はもちろんのこと 単一障害点を排除できるのが最大のメリットになります デメリットはvSAN同様にシステム要件になります Cephをまともに使おうとするとよく言われるのは PC3台以上・CPUはそこそこで大丈夫ですがメモリは

                                    Proxmox VE 6.1でCephをインストール | fefcc.net
                                  • Cephベースのソフトウェア定義型ストレージ、SUSEとHPEが提供開始

                                    Cephベースのソフトウェア定義型ストレージ、SUSEとHPEが提供開始:「SUSE Enterprise Storage 3」を採用 SUSEとHPEは、「Ceph」を採用したソフトウェア定義型ストレージ「HPE Scalable Object Storage Solution with SUSE Enterprise Storage」の提供を開始した。 米SUSEと米ヒューレット・パッカード・エンタープライズ(HPE)は2016年6月14日、「HPE Scalable Object Storage Solution with SUSE Enterprise Storage」の提供を開始すると発表した。 HPE Scalable Object Storage Solution with SUSE Enterprise Storageは、オープンソースの分散ストレージ技術である「Ceph」

                                      Cephベースのソフトウェア定義型ストレージ、SUSEとHPEが提供開始
                                    • Ceph アーキテクチャ 解説 (Ceph Clientによるデータの分割)

                                      by kumagai(@kumagai19o) 2014/6/24 毎度ご無沙汰しています。ビットアイル総合研究所、熊谷です。 Cephの2回目です。 前回、インストールからセットアップまでご紹介しました。 今回はCephの公式ドキュメントを元にCephがどのようにファイルを 分割配置しているかについて、数回に分けて解説したいと思います。 ■Cephの記事一覧 ※本記事は公式ドキュメントのアーキテクチャの記載 を元に記載しています。 誤り等ありましたらご指摘ください。 Ceph によるオブジェクト分散管理の概要

                                      • Ceph の CRUSH マップの書き方

                                        このページでは ceph の CRUSH マップの記述方法を説明する。 Ceph の設定手順の中では「Ceph を使ってみる」のSTEP7で必要になる。 以下は関連ページ。 Ceph の覚え書きのインデックス Rados Block Device(RBD) を使ってみる Ceph を使ってみる RADOS の概略 更新履歴 (2012.02.11) 作成。 (2012.02.14) 「CRUSHマップの取得・設定」と「テストツールを使った配置テスト」を追記。 (2012.04.02) 稼働中の CRUSH マップの確認方法を追加。 (2012.05.03) CRUSH マップの記述ルールを追加。 目次 CRUSHマップの取得・設定 構造 Devices Types Buckets Rules 注意事項 テストツールを使った配置テスト 稼働中の CRUSH マップの確認 例 コメント CRU

                                        • JTF2014 で Ceph について話してきた!

                                          こんにちは。@jedipunkz です。 今日、JTF2014 (July Tech Festa 2014) というイベントで Ceph のことを話してきま した。Ceph ユーザ会の会員として話してきたのですが Ceph ユーザ会は実は最近発足 したばかりのユーザ会で、まだまだ活動が活発ではありません。もし興味がある方いらっ しゃいましたら是非参加よろしくお願いしますー。下記の Google Groups になります。 https://groups.google.com/forum/#!forum/ceph-jp ユーザ会としての勉強会として初になるのですが、今回このイベントで自分は Ceph-Deploy について話してきました。とりあえず皆さんに使ってもらいたかったので この話をしてきました。が、予定時間がメチャ短かったので超絶早口で頑張った分、皆 さんに理解してもらえなかった気がし

                                            JTF2014 で Ceph について話してきた!
                                          • Technology - Ceph

                                            Ceph delivers object, block, and file storage in a single, unified system.Ceph is highly reliable, easy to manage, and free. Ceph delivers extraordinary scalability: thousands of clients accessing exabytes of data. The Ceph stack: architectural overviewThe RADOS-based Ceph Stack Whatever delivery framework you require, Ceph can be adapted and applied accordingly. Ceph provides a flexible, scalable

                                              Technology - Ceph