Zabbix監視テンプレート(GlusterFS Client)を作成しました。 Zabbix 3.0、GlusterFS(クライアント側) 3.7.8で検証しています。 前提条件 /etc/logrotate.dの設定がrestartではなく、reloadを使用している事。 Zabbixエージェントの設定ファイルにパラメータ"Include=/etc/zabbix/zabbix_agentd.d/"を設定している事。
In this blog I will create a 3 node Docker swarm cluster and use GlusterFS to share volume storage across Docker swarm nodes. Introduction Using Swarm node in Docker will create a cluster of Docker hosts to run container on, the problem in had is if container “A” run in “node1” with named volume “voldata”, … Continue reading Using GlusterFS with Docker swarm cluster The post Using GlusterFS with D
The other day, CoreOS announced a new distributed storage system called Torus. Not too surprisingly, a lot of people have asked for my opinion about it, so I might as well collect some of my thoughts here. First off, let me say that I like the CoreOS team and I welcome new projects in this space - especially when they're open source. When I wrote the first C bindings for etcd, it gave me occasion
Docker 1.8 では Volume と Network 二種類のプラグイン構造が導入されました。 これを使えば難しかったボリュームの永続化や、コンテナ間の仮想ネットワークが実現できるという触れ込みです。 そろっとこのプラグインとやらを使ってみるかと思い、いくつかリリースされている Volume Plugin から試してみることにしました。 これまで コンテナを終了、再起動してもデータを永続化するためにボリュームを使ってきました。これはホストのファイルシステムの一部をコンテナ内にマウントする様な仕組みです。 ボリュームで永続化ができるようになりましたが、ホストとコンテナの内部が密接に関係してしまいコンテナのポータビリティが失われるという問題がありました。 なのでボリュームマウントするのはネットワークファイルシステムにしたいという要求がわいてくるのですが、これも一筋縄ではいかなかった様に
This is a follow-up blog from KLM innovation day The goal of Team 1 was to have GlusterFS cluster running in Docker containers and to expose the distributed file system to a container by ‘mounting’ it through a so called data container. Setting up GlusterFS was not that hard, the installation steps are explained here [installing-glusterfs-a-quick-start-guide]. The Dockerfiles we eventually created
The following is an excerpt from Chapter 8 of Ansible for DevOps, a book on Ansible by Jeff Geerling. Modern infrastructure often involves some amount of horizontal scaling; instead of having one giant server, with one storage volume, one database, one application instance, etc., most apps use two, four, ten, or dozens of servers. Many applications can be scaled horizontally with ease, but what ha
Building an HTML5 game with GlusterFS, Docker and Rancher GlusterFS is a scalable, highly available, and distributed network file system widely used for applications that need shared storage including cloud computing, media streaming, content delivery networks, and web cluster solutions. High availability is ensured by the fact that storage data is redundant, so in case one node fails another will
小ネタ&自分用のメモとして。 背景 Docker コンテナでデータを永続化するためにはボリュームが良く使われます。 ボリュームはホストのディレクトリをコンテナ内にマウントするものですが、それゆえにコンテナとホストの結びつきが強くなってしまいます。具体的にはコンテナを他のホストに持っていったときデータは永続化されません、データも一緒に移動するといったホスト側のメンテナンスが発生してしまいます。 また、複数ホスト間でコンテナを分散しクラスタリングしようとしたとき、やはりボリュームの一元化が必要という問題に悩まされることと思います。 ネットワークボリュームを使う事になると思うのですが、ホスト側にマウントする形ではホストのメンテナンス作業が発生してしまうので好ましくありません。 そこで Docker コンテナ内でネットワークボリュームをマウントできないかと考えました。 なぜ NFS でなく Glu
Many shared storage solutions are currently vying for users’ favor; however, Ceph and GlusterFS generate the most press. We compare the two competitors and reveal the strengths and weaknesses of each solution. Big Data is a major buzzword today in terms of IT trends. Snappy observers sometimes comment that, although everyone might talk about the subject, no one really knows what it actually is. On
はじめに GlusterFSのボリュームは、FUSEを使ってマウントする以外にNFSクライアントを使ってマウントすることもできる。 GlusterFS内蔵のNFSサーバはNFSv3プロトコルにのみ対応している。しかしNFS-Ganeshaと連携することによりNFSv4プロトコルにも対応することができる。 元情報は http://blog.gluster.org/2014/09/glusterfs-and-nfs-ganesha-integration/ だが、やってみると結構違った。 セットアップ 本題ではないので特に解説はしないが、私がCentOS 7でいつも使っている標準的な方法を載せておく。CentOS 6でもsystemctlがserviceかchkconfigに変わるのと、xfsprogsがインストールされてなければインストールするくらいの違いだろう。 なお面倒なのでfirewa
「Ceph」や「GlusterFS」の名前を聞いたことがありますか? この2つは、ソフトウェアによる分散ストレージの仲間です。HadoopのHDFSやGoogle File Systemの仲間です。 HDFSとの違いはなんでしょうか?それは、CephもGlusterFSも「データの格納場所」としての使い方がメインであることです。HDFSはMapReduceの処理を効率よく行うために設計されていますが、CephとGlusterFSは、普通にマウントして、共有ファイルサーバーとして利用することを目的に設計・開発されました。 どちらも2000年代前半から開発に着手して、現在に至っています。 Cephは、途中で共有ファイルサーバーとしての使い方よりも、AWS S3のようなオブジェクトストレージや、EBSのようなブロックストレージへの対応を先に行いました。その結果、一つのストレージプールをオブジェク
少し古いですが、2013年度経産省採択事業「自律型ハイブリッドクラウドプラットフォーム技術開発プロジェクト」における、分散ファイルシステム技術検証サブプロジェクトのために、共有ファイルサーバの分散レプリケーション技術と障害リカバリについて検証を行った報告書です。Ceph/GlusterFS/XtreemFSの比較検証を行いました。 https://s3-ap-northeast-1.amazonaws.com/cloudconductorwpupdate/whitepaper/%E5%88%86%E6%95%A3%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AB%E3%82%B7%E3%82%B9%E3%83%86%E3%83%A0%E3%81%AEWAN%E8%B6%8A%E3%81%88%E5%90%8C%E6%9C%9F%E3%83%AC%E3%83%97%E3
GlusterFS に関する技術情報を掲載しています。 ここに記載の情報は、基本的には、GlusterFS 3.3をベースとしています。GlusterFS 3.4での機能拡張予定については、こちらを参照ください。 「Red Hat Storage Server」は、GlusterFSの安定版をベースとしたレッドハットの商用ディストリビューションです。Red Hat Enterprise Linuxを同梱したソフトウェアアプライアンスとして提供されます。 Red Hat Storage Serverの利用にあたっては、事前に下記の技術情報をご確認ください。 Red Hat Storage Server 2.0 Supported and Recommended Workloads サポート/推奨される使用方法、および推奨されない使用方法が記載されています。 Red Hat Storage S
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く