イベント名:設立3周年記念チャリティーセミナー 講師:日本仮想化技術 宮原 日時:2010/2/6 アジェンダ: • KVMの概要 • KVM仮想マシン作成のコツ • KVMベンチマークテスト 概要: リリース直後に異例の速さでカーネルに取り込まれたKVMですが、VMwareやXenに比べて、まだまだ活用術や情報が少ないのが現状です。本セッションでは、KVMの仕組み、活用方法、性能評価の結果について解説いたします。
[IT研修]注目キーワード Python UiPath(RPA) 最新技術動向 Microsoft Azure Docker Kubernetes 第77回 分散ファイルシステムCephFSのアーキテクチャー (中井悦司) 2015年11月 はじめに 今回は、「OpenStack Summit Tokyo/2015」に関連して、分散ファイルシステムCephFSを紹介します。分散ストレージソフトウェアCephは、OpenStackのブロックストレージ機能であるCinderのバックエンドとしての採用率が高いことで有名です。Cinderのバックエンドとして使用する場合は、RBD(RADOS Block Device)の機能を用いて、Cephのストレージプール上に仮想的なブロックデバイスを構成します。(RBDの仕組みについては、本連載の第45回を参照。)さらに、Cephは、分散ファイルシステム「C
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 「OpenStack Summit Tokyo 2015」では、OpenStackのコアコンポーネントに加えて、OpenStackと連携する技術に関する数多くのセッションが見受けられた。ここでは、OpenStackと連携する分散ストレージソフトウェア「Ceph」のオリジナル開発者であるSage Weilによるセッションを紹介する。 OpenStackの定番ストレージとなった「Ceph」 今回のOpenStack Summit開催に先駆けて、OpenStack Foundationが実施したユーザーサーベイでは、62%のユーザーがOpenStackのブロックストレージコンポーネント「Cinder」のバックエンドとしてCephを使用している
OpenStack環境下の分散ストレージとして注目を集めるCeph/RADOS。今回は各コンポーネントを深掘りして挙動を理解していく。分散の仕組みや特徴を理解することで、より良いシステム構成検討を目指そう。 連載バックナンバー Ceph/RADOSの実装から動作の仕組みを理解する 前回の記事ではCeph/RADOSの成り立ちや、注目されている理由、他の類似プロダクトとの違いを見てきました。 今回はCeph/RADOSがどのような構成で分散ストレージを実現しているのかを理解していきましょう。 Ceph/RADOSの実装を見る まず、Ceph/RADOSの技術的な概要を見ていきましょう。 Ceph/RADOS環境は、分散オブジェクトストレージであるRADOSがベースとなっています。RADOSはアプリケーションから直接使用する他、コンポーネントを足すことで各種サービスインターフェース(ブロックイ
Cephのアーキテクチャの解説、最新動向、ベンチマークや事例などを掲載したスライドです。 第1回サービスプロバイダー様向け技術勉強会Read less
新機能 connpass APIに新しく、所属グループを取得できるAPIやユーザーの参加イベントAPIを追加しました。各APIの詳細な仕様や利用方法につきましては、 APIリファレンス をご確認ください。またAPI利用希望の方は connpassのAPI利用について をご覧ください。 お知らせ 2024年9月1日より、connpassではスクレイピングを禁止し、利用規約に明記しました。以降の情報取得にはconnpass APIをご利用ください。APIご利用についてはヘルプページをご確認ください。 新機能 「QRコード読み取りによる出席機能」をリリースしました。事前に入場受付が必要な場合や、受付時に参加枠などによって個別の誘導が必要な場合にご利用ください。詳しくは こちら をご覧ください。 8月 7 Linux女子部09 「新定番!10年効く分散ストレージ技術 Ceph勉強会」 Ceph ア
ホスティング事業者の米DreamHostは10月15日(米国時間)、OpenStackべースのパブリッククラウド「DreamCompute」を発表した。自社が開発を率いるオープンソースの分散ストレージシステム「Ceph」を特徴とし、拡張性と信頼性を特徴とする。 DreamHostはWebホスティングサービスを提供する企業で、DreamComputeは同社にとって初となるクラウドコンピューティングサービスとなる。DreamComputeは自社も開発に参加するオープンソースのクラウド基盤プロジェクトOpenStackをベースとしたパブリックIaaS(インフラ・アズ・ア・サービス)で、開発者と起業家向けとうたっている。 OpenStackのクラウドプラットフォームをベースとし、ストレージブロックCeph、米VMwareが買収したNiciraのネットワークサービス仮想化技術「Nicira NVP(
It”s a week delayed, but v0.38 is ready. The highlights: osd: some peering refactoringosd: “replay” period is per-pool (now only affects fs data pool)osd: clean up old osdmapsosd: allow admin to revert lost objects to prior versions (or delete)mkcephfs: generate reasonable crush map based on “host” and “rack” fields in [osd.NN] sections of ceph.confradosgw: bucket index improvementsradosgw: impro
20. [ ] tatsuya@ceph2c:~$ fio fio-scenarios/seqwrite-ceph-001w-test.fio seq-write: (g=0): rw=write, bs=4K-4K/4K-4K, ioengine=sync, iodepth=1 Starting 1 process seq-write: Laying out IO file(s) (1 file(s) / 1024MB) Jobs: 1 (f=1): [W] [100.0% done] [0K/37768K /s] [0/9220 iops] [eta 00m:00s] seq-write: (groupid=0, jobs=1): err= 0: pid=5370 write: io=1024MB, bw=37681KB/s, iops=9420, runt= 27828msec cl
Datamation content and product recommendations are editorially independent. We may make money when you click on links to our partners. Learn More. Cloud computing presents a new model for data delivery and data storage and it’s a new model that is set to soon benefit from the Ceph filesystem. The open source Ceph filesystem is a distributed filesystem that is intended to be massively scalable. The
Publications About Ceph ¶Ceph began as research at the Storage Systems Research Centre at the University of California, Santa Cruz, funded by a grant from Lawrence Livermore, Sandia and Los Alamos National Laboratories. Following the original publication on Ceph, the PhD thesis by Sage Weil, a variety of publications about scalable storage systems have been published. Books ¶Ceph Cookbook – Second
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く