届く愉しみが増える購入時のサービス。 不要ソファの引き取り、保証期間、クッションプレゼント特典、納期、配送。
届く愉しみが増える購入時のサービス。 不要ソファの引き取り、保証期間、クッションプレゼント特典、納期、配送。
何の話かというと Kubernetesの環境をセットアップする際は、コンテナ間で通信するための内部ネットワークを用意する必要があり、このためのツールとして、Flannelがよく利用されます。この時、バックエンドにVXLANを指定すると、物理ネットワークの上にVXLANによるOverlay方式で内部ネットワークが構成されます。 ここでは、Flannelが構成する内部ネットワークの仕組みを解説しつつ、VXLANについて学んでみたいと思います。RHEL7.1でKubernetes+Flannelの環境を構築する手順は、下記を参照ください。 RHEL7.1でKubernetesを実体験(構築編) Flannelが構成する内部ネットワーク 上記の手順で環境構築すると、下図のように内部ネットワークが用意されます。各ノード(Minion)には、VXLANデバイス「flannel.1」が作成されて、VXL
届く愉しみが増える購入時のサービス。 不要ソファの引き取り、保証期間、クッションプレゼント特典、納期、配送。
関連キーワード SDN(Software Defined Networking) | オープンソース | Docker コンテナオーケストレーター「Kubernetes」のクラスタ(Kubernetesクラスタ)におけるネットワークは、一般的にCNI(Container Networking Interface)プラグインを使用して構成します。CNIは業界団体CNCF(Cloud Native Computing Foundation)のプロジェクトとして定義された「Linux」コンテナ向けのネットワークの仕様であり、CNIプラグインはこの仕様に基づいたプラグインです。CNIの仕様に基づいたプラグインであれば、Kubernetesだけではなく「Cloud Foundry」や「Apache Mesos」などの主要なコンテナオーケストレーターでも利用することが可能です。 併せて読みたいお薦め記
CoreOS が提供する flannel を使って、複数の CoreOS マシンを跨いで Docker コンテナ同士通信できるようにする、というお話です。 もともと Kubernates には似たようなホスト間通信機能がついていたのですが、Google Compute Engine (GCE) 上でしか使えないという欠点がありました。これを取り出し、汎用的に使えるようにしたのが flannel です。 また、似た機能を持つものに weave がありますが、weave は導入が少々面倒な上に相手ホストの IP を明示的に指定してあげないといけません。その点 flannel は CoreOS 上での導入が簡単で、相手の IP を知らなくてもよく透過的に利用できるという利点があります。ホストに割り振られる IP が不定である EC2 + VPC 構成でも使いやすいでしょう。 イメージ図はこんな感
こんにちわ。 寒気きびしき折柄、皆様いかがお過ごしですか。 ブログ書くのも1年ぶりなんですが、開発合宿でHaconiwa + flannelを試してみたので、メモのように書き残しておこうと思います。 今回使ったHaconiwaですが、udzuraさんというスーパーエンジニアの方が作ったmruby製コンテナエンジンで、ロリポップマネージドクラウドというサーバーサービスでも利用されています。 flannelは、LinuxのVXLAN機能を用いてオーバーレイネットワークを実現するツールで、Kubernetesと組み合わせて利用されています。 今回この2つを組み合わせて実現するのはこのようなネットワークです。 検証環境 ゲストOS: Ubuntu 16.04.5 LTSVirtualBox 5.1.18Vagrant 2.1.5 まずは、vagrantを使って検証するためのVMを作成していきます。
数多く台頭しているDockerの運用管理に関する製品/サービスの特長、使い方を徹底解説する本特集「Docker運用管理製品/サービス大全」。今回は、グーグルが主導で開発しているKubernetes、flannel、cAdvisorの概要と使い方を解説します。 内容は、2015年6月の記事執筆時のもので、対象ソフトウエアのバージョンは下記です。前回も触れましたが、それぞれの役割と共に記載しておきます。全てOSS(オープンソースソフトウエア)です。なお環境構築手順の紹介で扱うDocker自体のバージョンは1.6を使っています。 Kubernetes(バージョン0.17):Dockerコンテナー管理フレームワーク flannel(バージョン0.41):Kubernetesを使うために作られた、それぞれのホストにサブネットを付与するオーバレイネットワーク。複数ホストのコンテナー間の連携を実現する
このエントリはKubernetesアドベントカレンダー2014の7日目です。 昨日のエントリでわかったとおり、 ホストをまたいでコンテナ間接続するためには 1. 各ホストが重複しないアドレス帯をdocker0に割り当てる 2. 起動したコンテナのIPアドレスを知る 3. 各ホスト(もしくは上位ルータ)で、他ホストがどのネットワークアドレス帯をdocker0に割り当てているかを把握しルーティングする という3つの面倒事があります。 このうち1.と3.を解決するのが flannel です。2.はKubernetesがします。 今日はflannelと、flannelを(だけでなくKubernetesも)動かすために必要なetcdについて見ていきます。 etcd coreos/etcd READMEを適当に訳すと、設定情報共有とサービス検出のための高可用KVSで、Apache Zookeeper、
[IT研修]注目キーワード Python UiPath(RPA) 最新技術動向 Microsoft Azure Docker Kubernetes 第65回 Flannelが実現するKubernetesの仮想ネットワーク (中井悦司) 2015年4月 はじめに 前回のコラムでは、VXLANによる仮想ネットワーク、すなわち、「L2 over L3」のオーバーレイネットワークを実現する仕組みを解説しました。この際、VXLANに対応した物理スイッチを使用する前提で説明しましたが、実は、現在のLinuxカーネルには、すでにVXLANの機能が組み込まれています。つまり、特別な物理スイッチを用いずとも、Linuxの機能だけでVXLANを利用することが可能です。 今回は、LinuxのVXLAN機能を用いてオーバーレイネットワークを実現するツール「Flannel」を紹介します。Flannelは、Docke
Kubernetes Network Deep Dive (NodePort, ClusterIP, Flannel)Dockerkubernetescontainerflannel 初めに Kubernetes には、Kubeadmをはじめとした半自動インストーラーがあり、比較的簡単にインストールを行うことが出来ます。 このままでもKubernetesクラスタを利用することはできますが、本番運用を考えると、Networkの疎通経路を正しく理解する必要があります。 私のローカル環境のKubernetesで検証・確認した内容をいかに共有します。 皆様のお役に立てましたら幸いです。 Pod同士の通信 (同一マシン) Pod同士の通信 (異なるマシン) Service(ClusterIP) を経由した通信 Service(NodePort) を経由した通信 Kubernetesなどのバージョン情
written by パルモ カテゴリー:情報紹介系 エンターテイメントバカネタブログ テーマ:人間観察 人間の心の闇に潜む「七つの大罪」って奴と、正面から向き合ってみるのもたまにはいいんじゃない?毒じゃなきゃ制せない、毒があるかもしれないじゃない?表裏一体で誰もが持っている良い心と悪い心、両方受け入れちゃえたなら、見えてくる何かがあるかもしれないじゃない? ご観覧に関して 1.リンクフリーです。 2.リンク先のサーバーがメンテ中の時は、動画などが表示されない場合がありますことをご了承願います。 3.主に海外サイトを紹介しています。リンク先によっては危険なプログラムが潜んでいる場合もあります。ザイーガでは独自にウイルスチェックをしておりますが、使っているウイルスソフトにより反応の違いがあるようです。ご利用は必ず自己責任でお願い致します。 4.インターネット規制により、犯行予告的なもの、人の
Linux Advent Calendar 21日目を震えながら書きます。 @udzura です。普段は昨日紹介した Haconiwa などのようにLinuxコンテナランタイムやRubyを書いたりしています。正確には、雰囲気で書いています。 今日は、LinuxでOverlay networkを実現するミドルウェア、flannelの簡単な使い方と、コンテナとの連携の仕方、そしてvxlanのパケットの様子などのメモを書いていこうと思います。 flannelとは CoreOS社の開発している simple and easy な Overlay networkのためのミドルウェアです。 もともとはCoreOS(現Container Linux)自身で使うために開発されていた記憶があるのですが、現在はKubernetes と連携するためというところが第一のゴールのようで、普通はkubectlコマンド
このエントリはKubernetesアドベントカレンダー2014の8日目です。 今日はKubernetesの効果を理解するために、Kubernetesなしで構成を組んでみます。 dockerだけで組むのは先日やってみたので、 昨日紹介したflannelを使って実装します。 構成 手元のMacBookAirのVirtualBox上に、CentOS7を2台起動します。 host01上のコンテナにhost02上のコンテナから直接アクセスできるようなれば、Kubernetesのようなアクセス分散が実現できそうです。 eth0(NAT): 10.0.2.0/24 eth1(Hostonly): 172.16.0.0/16(host01: 172.16.1.1, host02: 172.16.2.1) docker0: flannel全体: 172.17.0.0/16, host01: flannel次
概要 前回の続きです。 今回はflannelを導入してマルチホストでのコンテナ間通信を可能にします。 マスターの設定 flannelの設定 flannel.json ネットワークの設定ファイルを用意します。適当にflannel.jsonとします。 { "Network": "10.20.0.0/16", "SubnetLen": 24, "Backend": { "Type": "vxlan", "VNI": 1 } } etcdctlでetcdのKVSにセットします。 # etcdctl set /atomic.io/network/config < flannel.json { "Network": "10.20.0.0/16", "SubnetLen": 24, "Backend": { "Type": "vxlan", "VNI": 1 } } /etc/sysconfig/fla
異なるDockerホストに配置されたコンテナ同士での通信を可能にするflannelですが、使ってばかりでその仕組みを理解していなかったので調べてみました。 具体的な構成 コンテナ10.1.11.xからコンテナ10.1.12.yへのパケット転送フローは以下の通りになります。 自身のネットワークへのパケットではないので、コンテナはデフォルトゲートウェイであるLinux Bridge docker0のIP 10.1.11.1(/24)にパケットを転送する (自ホスト内のコンテナへのパケットの場合、直接転送して終了) Linuxパケット転送機能を利用して、VXLANデバイス flannel0のIP 10.1.11.0(/16)にパケットを転送する flannel0とflanneldはパケットの宛先とetcdの情報を参照し、パケットを転送するべきNodeのIPを判断。その後、指定されたVNIを付与し
Featured Products
root@flannel01:~# apt-get update root@flannel01:~# apt-get upgrade -y root@flannel01:~# apt-get install build-essential linux-libc-dev bridge-utils git curl -y root@flannel01:~# wget -O - https://storage.googleapis.com/golang/go1.4.2.linux-amd64.tar.gz | tar -C /usr/local -vxzf - root@flannel01:~# echo 'export PATH=$PATH:/usr/local/go/bin' >> /etc/profile root@flannel01:~# source /etc/profile root
[IT研修]注目キーワード Python UiPath(RPA) 最新技術動向 Microsoft Azure Docker Kubernetes 第65回 Flannelが実現するKubernetesの仮想ネットワーク (中井悦司) 2015年4月 はじめに 前回のコラムでは、VXLANによる仮想ネットワーク、すなわち、「L2 over L3」のオーバーレイネットワークを実現する仕組みを解説しました。この際、VXLANに対応した物理スイッチを使用する前提で説明しましたが、実は、現在のLinuxカーネルには、すでにVXLANの機能が組み込まれています。つまり、特別な物理スイッチを用いずとも、Linuxの機能だけでVXLANを利用することが可能です。 今回は、LinuxのVXLAN機能を用いてオーバーレイネットワークを実現するツール「Flannel」を紹介します。Flannelは、Docke
Introducing flannel: An etcd backed overlay network for containers https://coreos.com/blog/introducing-rudder/ Things are not as easy on other cloud providers where a host cannot get an entire subnet to itself. Rudder aims to solve this problem by creating an overlay mesh network that provisions a subnet to each server. Running Kubernetes Example on CoreOS, Part 2 - Qiita http://qiita.com/yungsang
新オンラインストア「MARKAWARE.JP」を オープンいたしました。 ブックマーク登録のご変更をお願いいたします。 このページは5秒後に自動的に、 「MARKAWARE.JP」のトップページに移動します。 自動的に移動しない場合は、 次のURLをクリックしてください。 「MARKAWARE.JP」ウェブサイト https://markaware.jp/
届く愉しみが増える購入時のサービス。 不要ソファの引き取り、保証期間、クッションプレゼント特典、納期、配送。
このエントリはKubernetesアドベントカレンダー2014の9日目です。 いよいよ小規模なKubetnetesクラスタを構築してみます。 構成 プロダクトバージョン VirtualBox CentOS7 etcd 0.4.6 flannel 0.1.0 Kubernetes 0.5.3 ネットワーク eth0(NAT): 10.0.2.0/24 eth1(Hostonly): 172.16.0.0/16 flannel全体: 172.17.0.0/16 Kubernetes: 172.18.0.0/16 サーバ Master 1台: Kubernetes(kube-apiserver, kube-controller-manager, kube-scheduler, kubelet), docker, etcd, flannel master01: 172.16.1.1 Minion
構成/導入環境 参考サイト kubernetes導入 仮想マシン準備 仮想マシンをデブロイ 仮想マシンの初期設定 仮想マシンのMACアドレスとUUID確認 dockerインストール dockerインストール kubeadm、kubelet、kubectlのインストール Kubernetes用Repository追加 kubelet kubeadm kubectlのインストール kubelet起動 kubeletが使用するcgroupドライバ確認と修正 SWAPの無効化 SWAPの無効化 kubeadmを使用したクラスタの作成 マスターを初期化する クラスタアクセス設定とステータス確認 Flannel導入(オーバーレイネットワーク) kube-flannel.yml をダウンロード kube-flannel-rbac.yml をダウンロード kube-flannel.yml の修正(パラメー
This article explains how flannel network works in Kubernetes Kubernetes is an excellent tool for managing containerized applications at scale. But as you may know, working with kubernetes is not an easy road, especially the backend networking implementation. I have met many problems in networking and it cost me much time to figure out how it works. In this article, I want to use the most simple i
kubeadm について kubeadm は kubernetes をデプロイするためのツール。公式ドキュメントでも紹介されているツールで、まだベーダ版だが kubernetes クラスタを構築する際には今後はこのツールを使っていくことになる。他には Minikube というツールもあるが、こちらはローカルで kubernetes を構築するためのもので、主に開発者に使われることを想定している。 環境 自分の試した環境は以下のとおり。 ホストOS: MacOS Sierra ゲストOS: Ubuntu 16.04.2 LTS VirtualBox 5.1.14 Vagrant 1.9.1 用意した VM は3つ。マスターノード用に 2vCPU, 4GB の VM が1つ、ワーカーノード用に 1vCPU, 2GB の VM が2つ、それぞれのホスト名は manager, host1, hos
Celebrating 45 years of quality, comfort and craftsmanshipWe started in 1973 during the first oil crisis, making down comforters in Yarmouth, Maine and selling them to our friends. People loved the warmth and high quality of our comforters so much, we soon had orders nationwide, and expanded our line to pillows and featherbeds, made with the same quality and meticulous attention to detail that wen
SHOWROOM ショールーム 東京、名古屋本店、大阪、福岡、販売会 ※ショールームは予約制ではありません。
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く