イベント名:設立3周年記念チャリティーセミナー 講師:日本仮想化技術 宮原 日時:2010/2/6 アジェンダ: • KVMの概要 • KVM仮想マシン作成のコツ • KVMベンチマークテスト 概要: リリース直後に異例の速さでカーネルに取り込まれたKVMですが、VMwareやXenに比べて、まだまだ活用術や情報が少ないのが現状です。本セッションでは、KVMの仕組み、活用方法、性能評価の結果について解説いたします。
![分散ストレージソフトウェアCeph・アーキテクチャー概要](https://cdn-ak-scissors.b.st-hatena.com/image/square/89d16ef50fe278e1c920bb773b713ec7e2c9d6af/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2Fcepharchitectureintroductionv1-160208040030-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
[IT研修]注目キーワード Python UiPath(RPA) 最新技術動向 Microsoft Azure Docker Kubernetes 第77回 分散ファイルシステムCephFSのアーキテクチャー (中井悦司) 2015年11月 はじめに 今回は、「OpenStack Summit Tokyo/2015」に関連して、分散ファイルシステムCephFSを紹介します。分散ストレージソフトウェアCephは、OpenStackのブロックストレージ機能であるCinderのバックエンドとしての採用率が高いことで有名です。Cinderのバックエンドとして使用する場合は、RBD(RADOS Block Device)の機能を用いて、Cephのストレージプール上に仮想的なブロックデバイスを構成します。(RBDの仕組みについては、本連載の第45回を参照。)さらに、Cephは、分散ファイルシステム「C
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 「OpenStack Summit Tokyo 2015」では、OpenStackのコアコンポーネントに加えて、OpenStackと連携する技術に関する数多くのセッションが見受けられた。ここでは、OpenStackと連携する分散ストレージソフトウェア「Ceph」のオリジナル開発者であるSage Weilによるセッションを紹介する。 OpenStackの定番ストレージとなった「Ceph」 今回のOpenStack Summit開催に先駆けて、OpenStack Foundationが実施したユーザーサーベイでは、62%のユーザーがOpenStackのブロックストレージコンポーネント「Cinder」のバックエンドとしてCephを使用している
OpenStack環境下の分散ストレージとして注目を集めるCeph/RADOS。今回は各コンポーネントを深掘りして挙動を理解していく。分散の仕組みや特徴を理解することで、より良いシステム構成検討を目指そう。 連載バックナンバー Ceph/RADOSの実装から動作の仕組みを理解する 前回の記事ではCeph/RADOSの成り立ちや、注目されている理由、他の類似プロダクトとの違いを見てきました。 今回はCeph/RADOSがどのような構成で分散ストレージを実現しているのかを理解していきましょう。 Ceph/RADOSの実装を見る まず、Ceph/RADOSの技術的な概要を見ていきましょう。 Ceph/RADOS環境は、分散オブジェクトストレージであるRADOSがベースとなっています。RADOSはアプリケーションから直接使用する他、コンポーネントを足すことで各種サービスインターフェース(ブロックイ
Cephのアーキテクチャの解説、最新動向、ベンチマークや事例などを掲載したスライドです。 第1回サービスプロバイダー様向け技術勉強会Read less
注意 現在X(旧Twitter)でのソーシャルログインができない事象を確認しています。事前にX(旧Twitter)側で再ログインした上でconnpassのソーシャルログインを行うか、 「ユーザー名(またはメールアドレス)」と「パスワード」の組み合わせでのログインをお試しください。合わせてFAQもご確認ください。 お知らせ 2024年9月1日よりconnpassサービスサイトへのスクレイピングを禁止とし、利用規約に禁止事項として明記します。 9月1日以降のconnpassの情報取得につきましては イベントサーチAPI の利用をご検討ください。 お知らせ connpassではさらなる価値のあるデータを提供するため、イベントサーチAPIの提供方法の見直しを決定しました。2024年5月23日(木)より 「企業・法人」「コミュニティ及び個人」向けの2プランを提供開始いたします。ご利用にあたっては利用
CloudNative Days Spring 2021 ONLINE キーノートでの発表資料です。 https://event.cloudnativedays.jp/cndo2021/talks/1071 本セッションでは、DockerとKubernetesのもつ基本的な機能の概要を、コンテナの仕組みをふまえつつイラストを用いて紹介していきます。一般にあまり焦点をあてて取り上げられることは多くありませんが、コンテナの作成や管理を担う低レベルなソフトウェア「コンテナランタイム」も本セッションの中心的なトピックのひとつです。 本セッションは、拙著「イラストで分かるDockerとKubernetes」(技術評論社)の内容を参考にしています。 https://www.amazon.co.jp/dp/4297118378
ホスティング事業者の米DreamHostは10月15日(米国時間)、OpenStackべースのパブリッククラウド「DreamCompute」を発表した。自社が開発を率いるオープンソースの分散ストレージシステム「Ceph」を特徴とし、拡張性と信頼性を特徴とする。 DreamHostはWebホスティングサービスを提供する企業で、DreamComputeは同社にとって初となるクラウドコンピューティングサービスとなる。DreamComputeは自社も開発に参加するオープンソースのクラウド基盤プロジェクトOpenStackをベースとしたパブリックIaaS(インフラ・アズ・ア・サービス)で、開発者と起業家向けとうたっている。 OpenStackのクラウドプラットフォームをベースとし、ストレージブロックCeph、米VMwareが買収したNiciraのネットワークサービス仮想化技術「Nicira NVP(
It”s a week delayed, but v0.38 is ready. The highlights: osd: some peering refactoringosd: “replay” period is per-pool (now only affects fs data pool)osd: clean up old osdmapsosd: allow admin to revert lost objects to prior versions (or delete)mkcephfs: generate reasonable crush map based on “host” and “rack” fields in [osd.NN] sections of ceph.confradosgw: bucket index improvementsradosgw: impro
20. [ ] tatsuya@ceph2c:~$ fio fio-scenarios/seqwrite-ceph-001w-test.fio seq-write: (g=0): rw=write, bs=4K-4K/4K-4K, ioengine=sync, iodepth=1 Starting 1 process seq-write: Laying out IO file(s) (1 file(s) / 1024MB) Jobs: 1 (f=1): [W] [100.0% done] [0K/37768K /s] [0/9220 iops] [eta 00m:00s] seq-write: (groupid=0, jobs=1): err= 0: pid=5370 write: io=1024MB, bw=37681KB/s, iops=9420, runt= 27828msec cl
Datamation content and product recommendations are editorially independent. We may make money when you click on links to our partners. Learn More. Cloud computing presents a new model for data delivery and data storage and it’s a new model that is set to soon benefit from the Ceph filesystem. The open source Ceph filesystem is a distributed filesystem that is intended to be massively scalable. The
Publications About Ceph ¶Ceph began as research at the Storage Systems Research Centre at the University of California, Santa Cruz, funded by a grant from Lawrence Livermore, Sandia and Los Alamos National Laboratories. Following the original publication on Ceph, the PhD thesis by Sage Weil, a variety of publications about scalable storage systems have been published. Books ¶Ceph Cookbook – Second
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く