 
  
  Heroku もかつては使えなかった WebSocket。Deis も v1 の最初期は使えなかったようだが、比較的早い時期にパッチが当たったらしい1。 さて、Deis は v2 になって、下層が Fleet から K8s へ変更になった。 しかし、PaaS を構成するコンテナ群には大きな変更はなく、同様に WebSocket 対応されているはず。 でも、未確認で作業を始めたあとに「実は未対応でした」となると手戻りが大きいので、試してみる。 結論から言うと、対応している。 作業ログは下記の通り。 (Heroku で Websockets with Node.js をはじめるためのメモ を参考にした。) $ git clone https://github.com/heroku-examples/node-ws-test.git Cloning into 'node-ws-test'...
 
      
  v1 or v2 ? This article is written for Workflow (v2). But you can reset your password in Deis(v1) by almost same procedure. case: you are not an administrator Ask your administrator to exec deis auth:passwd --user {your_account} case: you are the one and only administrator Ssh into your kube-master node and exec manage.py in the controller. $ kubectl exec --namespace=deis -it deis-controller-35680
 
      
  前口上 別記事 で Windows への Deis Workflow CLI のインストールからアカウント作成までを説明しましたが,いざ deis create コマンドを用いてアプリケーションを作ろうとすると,例外が発生してしまいます。 これは,アプリケーションの作成時に deis.exe を git.exe remote を実行しようとしているためです。 MsysGit など用いて git.exe をインストールすれば済む話ですが,よりお手軽な方法として,Atlassian SourceTree を用いる方法があります。 SourceTree がどんなソフトでどのようにインストールするのかといった細かいことは割愛します。ググると山のように出てきます。 筋書き hello-deis という Web アプリケーションのデプロイを想定します。 SourceTree のインストール 難しいこと
 
      
  最近になって,Deis Workflow (以下,単に Workflow)を Azure にデプロイするための公式文書が出たようなので,その通りにやっていれば失敗しないはずなのだけれども。 自前でやりたい人,または自前でやった結果,イマイチなレスポンスになっている人のためのメモ。 タイトルは Workflow だけれども,Kubernetes (K8s) 一般でも成り立つかもしれない。 言いたいことは,タイトルで言い尽くしている。 Azure での K8s 一般論 K8s 一般論として,起動時/再起動時には,OS がマウントしている vhd は, OS の起動処理や K8s 関連のコンテナのアクセスが集中して,ストレージアカウントへのアクセスが急増する。 アクセスが集中すると,ストレージアカウントのグレードにも依るけれども,帯域制限(スロットリング)がかかる。 Azure での Workf
 
      
  minikubeはKubernetes公式のツールで、フル機能のKubernetesをローカル環境に構築することができます。Kubernetesへデプロイするアプリのテスト時、k8s objectをいじるたびにサーバにデプロイ・・みたいなことをするのがこれまで面倒でしたが、minikubeでだいぶ楽になりました。 TL;DR docker-machine + redspread/localkubeよりだいぶ良いです。 ただし、5/31現在の0.1.0では、コンテナから外部ホストをDNSで解決できない問題がある(例えば、DatadogコンテナからメトリクスをDatadogへ送れないとか、apt-get updateできないとか)ので、もうしばらく待ちましょう。 ぼくは、今のところlocalkube+docker-machine最新版+Docker古いの(boot2docker v1.9.1を
 
      
  TL;DR minikube addons enable ingress で Minikube で簡単に Ingress を使いはじめることができる ローカルのネームサーバで Ingress に設定したホスト名を名前解決させてより快適に利用する Minikube 標準の Ingress Controller の代わりに nghttpx-ingress-controller を使うのも簡単、そのときカスタム Cluster Add-on を使うとより快適に利用できる はじめに プロダクションにおいて Ingress を利用しているならローカルの Minikube においても Ingress を利用して動作を検証したい。Minikube は、ローカルにシングルノード構成の Kubernetes クラスタを簡単に構築できるツールである。 Ingress を使うには、作成されている Ingress
 
      
  PackerでIDCFクラウド(CloudStack + VMware)向けのRancherOS OVAテンプレートを作りました。 格安Dockerクラスタが組めそうな気がしています。 動機 日本国内に設置できるクラウドでコスパ暫定一位のIDCFクラウドLight.S1インスタンス1を使ってRancherクラスタを組みたかった 実現すればおそらくAWSのSpot InstanceやGCPのPreemptible VMと同等以上に安上がりに2 次点でVultr3があったが、RancherOSのインストールには最低1.5GBのRAMが必要4で最小構成ではインストールできなかった Rancher Serverダッシュボード経由のエージェント追加でもこのボトルネックがある模様 VultrではISO/iPXE以外の方法でアップロード/インストールできなかった ISOブートとRANCHER-STATE
 
      
  前回の「Docker swarm のクラスタを手で構築してみる」という記事の続編となります。 記述時の環境 docker engine - 1.11 docker swarm - 1.2.0 consul - 0.6.0 host - Debian 8.4 docker engine は get.docker.com を使ってのインストール ベースとなる VM イメージ クラウドで Docker コンテナを利用するために、予め環境を整えておいた Docker ホスト VM イメージを用意して使っています。swarm クラスタを作るために、この Docker ホストイメージからインスタンスを複数作成して swarm master と swarm node に仕上げます。 ベースイメージは以下の様な構成となっています。 Linux OS Debian 8.4 Docker engine con
 
      
  追記 2016/08/03 の更新でgcloud付属のkubectlが1.3.3になった kubectlを別個に入れる必要なく利用できるようになりました。 gcloud付属のkubectl >= 1.3.0になったらまるで役に立たない情報。 tl;dr gcloud付属のkubectlにはまだcompletionがないから 最新版を持ってきてkubectlの補完機能を使って幸せになろう。 kubectl 1.3.0を[ここからDownload] (https://coreos.com/kubernetes/docs/latest/configure-kubectl.html) $ source <(kubectl completion zsh) 便利 logsでpod nameだけじゃなくて multi container podの場合、中で何が動いてるかも判定してくれる。(nginx,
 
      
  リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く
