Table E-1. Reserved Exit Codes Exit Code NumberMeaningExampleComments
「業務システムの開発時に、マイクロサービスの採用を検討する案件が増えてきた」。アクセンチュア テクノロジーコンサルティング本部テクノロジーアーキテクチャグループ統括 田畑紀和 マネジング・ディレクターは、マイクロサービスが企業システム分野にも広がりつつある状況を指摘する。 マイクロサービスは、小さいアプリケーション(サービス)を組み合わせてシステムを構築する設計方法を指す。会計処理であれぱ、操作画面、入力項目の確認、データ処理内容の判定、実際の処理、データベースへの書き込みといった単位にアプリを分割する。これらのアプリはAPI(アプリケーション・プログラミング・インタフェース)で連携する。 業務システムをマイクロサービス型で実現すると、システム開発や変更が容易になる。一つひとつのアプリの規模や、アプリ同士の依存度合いを小さくできるからだ。 これまでマイクロサービスに注目していたのは、主に消
チュートリアルを見ながらDocker Toolboxで遊ぼうとしたらProxy設定ではまりました。 Docker Quickstart Terminalで docker run hello-world してもエラー。 docker-machineにProxy設定が入っていないのが原因でした。 Windows7 Docker Toolbox 1.11.1 Proxy通さないと外にいけないネットワーク Proxyが有効になったdocker-machineを作成しなおす Docker Quickstart Terminalを起動すると、最初に default という docker-machine が作られます。これにProxy設定が入っていないので、dokcer run hello-worldで hello-world の dockerイメージを取りに行けていませんでした。 Docker Qui
Flink How To: A Demo of Apache Flink with Docker September 29, 2016. Written by Gezim Sejdiu. Posted in Blog, Big Data, BDE-Technology This guide explains the steps of how to run a Flink application on the BDE platform. Apache Flink is an open-source platform for distributed stream and batch processing. In this post, we are going to see how to launch a Flink demo app in minutes, thanks to the Apac
Containers are the best way to deploy Node.js applications to production. Containers provide a wide variety of benefits, from having the same environment in production and development to streamlining deploys for speed and size. Dockerizing your Node.js apps is awesome - but are you doing everything to make the process as reliable and vigorous as possible? If you're deploying to production with Doc
Following the excellent tutorials on how to run a multi broker kafka cluster natively: http://www.michael-noll.com/blog/2013/03/13/running-a-multi-broker-apache-kafka-cluster-on-a-single-node/ and in vagrant: http://allthingshadoop.com/2013/12/07/using-vagrant-to-get-up-and-running-with-apache-kafka/ Here is the tutorial based on Docker and Compose: Cluster Setup Install Docker Install Compose Upd
This spring, we announced Container-VM Image as a beta product under Google Cloud Platform (GCP). If you're a developer interested in deploying your application or a service provider on Google Compute Engine, we recommend taking a few moments to understand how it can help you. Linux containers help developers to focus on their application without worrying about the underlying infrastructure. A sec
golang では配列をソートしたい場合に癖があり、Int や Float64、String といった固定の型であれば sort パッケージが提供する関数でソートが可能でしたが、独自の型や Int64 等といった sort パッケージが用意していない型の配列をソートするには Sorter というインタフェースを備えた型で扱うしかありませんでした。 package main import ( "fmt" "sort" ) type Food struct { Name string Price int } type Foods []Food func (f Foods) Len() int { return len(f) } func (f Foods) Less(i, j int) bool { return f[i].Price < f[j].Price } func (f Foods
ルートに置くファイル多すぎだよね README、LICENSE、Rakefile、config.ru、GemfileにGemfile.lock、.envrc あたりまでは、まあしょうがないかな、と思っていたのですけど。.rspec、circle.yml、Guardfileあたりからちょっと気になりはじめて。 Dockerfile、docker-compose.yml、start.sh。docker起動用のシェルスクリプトなんかもrootにおいちゃったりなんかすると、ちょっと片付けようよという気がしてきません? そういうことが気になる、きれい好きな人のためのエントリです。 やりたいこと dockerディレクトリを作ってDocker関連のファイルを全部収めたい サブディレクトリを作って、コンテナごとに必要なファイルはそのディレクトリに入れるイメージです app bin config db do
オープンソースのワークフロー管理ツールDigdagに新しく s3_wait> オペレータが利用可能になっていたので、想定利用ケースと動作確認した結果について、簡単にメモします。 サービス間やチーム間でのデータ共有として、S3が利用されるケースが多い 責任範囲が異なるシステム間でのデータ共有としては、S3などのクラウドストレージやFTPなどにデータファイルを置いて、参照するという方法が多く一般的に行われています。例えば、利用しているベンダーのサービスの生ログやレポートを渡してもらったり、インフラDBAチームからマーケティングチームへ定期的にマーケット利用できるデータを渡してもらったり、など。シンプルにファイルデータを渡すことで、データ提供側とデータ受取側でお互いの運用に干渉したり、アクセスしたりしなくて済むメリットがあります。 事前のファイル存在チェックにs3_wait>オペレータを利用 デ
しばらく前から Dokku という Docker ベースの Heroku ライクな PaaS 基盤を趣味で運用していて、その中で旧ブログの WordPress や 自分用のツールなんかを動かしたりしている。 サーバのメトリクス収集には Mackerel を利用しているが、Docker コンテナ単位での計測は行っていなかった。 Mackerel はホスト数に応じた課金を行っていて、5 ホストまでは無料だが、コンテナまで追加してしまうとすぐにその枠を溢れてしまう。 というわけで簡単な仕組みを自分で用意いてみた。 できたもの どちらもメモリ使用量 (MB) をコンテナ名ごとにグラフ化したもので、どちらもデータは同じものを使っている。 後者はグラフを積み上げることでコンテナ全体で使用しているメモリの使用量もわかるようになっている。 今のところ Docker のリソースに関して困っているのはメモリだ
Dockerとは コンテナベースのアプリケーションを仮想化したもの。軽量なVMの様に見えるがこれまでの(VirtualBoxなど)VMでは実現が難しい、不可能であったユースケースを解決してくれる。 ホストOSとリソースを共有するのでリソースの管理がVMより効率的 基本的に状態を持たないのでポータビリティが非常に高く、特定の環境に依存することがない 軽量なのでVMと比較し複数のインスタンスを実行することができる DockerHubなどのレジストリを利用することで既存のイメージをダウンロードして実行することができる コンテナとVM VM VMはハイパーバイザを通してホストOSに対してのシステムコールを解釈させるなどの必要がある それぞれのVMには全て独立したOS・アプリケーション・ライブラリが必要 コンテナ ホストのカーネルは実行されるコンテナと共有される(コンテナは常にホストと同じカーネルを
こんにちは、藤本です。 Elastic社が公式のDockerイメージの提供を開始したので早速試してみました。 詳細は下記ページをご参照ください。 Introducing Docker images for Elasticsearch and Kibana 以前からDocker HubにてElasticsearch、Kibanaが提供されていました。こちらはElastic社公式のDockerイメージではなかったのかな。。 Elastic社公式Dockerイメージ 今回、Elastic社が持つDockerレジストリサーバーでイメージの提供を開始しています。また簡単にコンテナを利用できるようにElastic社のGithubリポジトリにて、Dockerfile、docker-compose.ymlを提供しています。 elastic/elasticsearch-docker elastic/kiba
そもそもSelenium Grid って? 一つのテストスクリプトで複数の実機のブラウザで自動にテストができるサーバのこと。 Selenium Grid Server(hubという)を自動テストで使うWebdriverの接続先にすることで以下のようなメリットが得られる。 ローカル環境でブラウザとWebdriverの準備が不要 プラットフォーム、ブラウザを指定するだけで、その環境のE2Eテストが実行できる 自動テストの並列化が簡単にできる ローカルでブラウザを実行しないので、自動テストと開発を同時に進めることができる 本備忘録のゴールと内容 ゴール selenium Grid Server を立てて、 chrome ブラウザで google に接続して 「長谷川豊」で検索を行い、その検索結果のスクリーンショットを取得するテストを実行する 内容 Selenium Grid Server(以下h
以前mecab-python周りは導入が面倒くさかったのでDockerfileにまとめておこう。 REST APIの部分はこちらを参考にFlaskで実装しました。 ソースはgithubにあります。 ついでにdocker-composeも使ってみたらこれは便利。今回みたいにコンテナ1つだとあまり旨味はないけど。 [2016-10-07 追記] 辞書ファイルの更新について追記。 [2018-03-11 追記] フロントエンドを追加。 FROM ubuntu:16.04 RUN apt-get update \ && apt-get install python3 python3-pip curl git sudo cron -y \ && apt-get clean \ && rm -rf /var/lib/apt/lists/* WORKDIR /opt RUN git clone http
Developing a Go app with Docker ComposeWriting Go applications in an isolated environment with Docker comes with some great advantages. You get a clean GOPATH, the bare essentials for developing, and you can easily change which Go version you’re developing against. In this quick tutorial, we’re going to show you how to structure a Go application with Docker Compose as your development environment.
Kubernetes includes a feature called services which serve as a kind of load balancer for pods. When pods misbehave or otherwise stop working, sometimes you’ll want to remove the pod from the service without killing the pod. Services & Endpoints Each service has a list of endpoints for the service which correspond to the pods for that service. This list of endpoints is updated automatically with th
イベント参加後の感想書くの久しぶりな気がするw 9/30(金)〜10/1(土)に開催されたServerlessConf Tokyo 2016に1日目のワークショップは普通に一般参加者として、2日目はスピーカーとして参加してきました。 ワークショップ 思った以上に実践的でそこそこ長丁場だったのもあって、けっこう疲れました。 ゾンビが大量発生した世界で生き残った人々が連絡を取り合うためのチャットシステムを作るみたいな感じだったのだけど、そのストーリー性のあるテーマのおかげでTwitterで参加者がわいわいしながらやっててとても楽しかったです。 その様子はこちらでご覧いただけます↓ togetter.com 内容はAPI Gatewayはやっぱりマネジメントコンソールから手動でポチポチするのツラいな・・・とか、Amazon ESやっぱ微妙だな・・・とか思ったりもしたけど全体的にはとても満足度が高
If you are a user of Firefox we have a must-change setting. Today’s modern multi-core processor systems and higher quantities of RAM allow users to open multiple Firefox tabs and windows simultaneously. This can have an unintended effect for those SSDs as session store data can write data constantly to NAND. This issue is being discussed in a STH forum thread where you can follow the discussion. O
こんにちは。一番好きな Key 作品は Air です。 本記事では draft-ietf-httpbis-key-01 - The Key HTTP Response Header Field により定義される、 "Key" という HTTP ヘッダフィールドによって実現されるセカンダリキャッシュキーの処理を、拙作プロダクト ts_mruby を用いて mruby で実装してみた体験などについて記述します。 ts_mruby 自体や、関連技術である Apache Traffic Server(ATS) 、はたまた mruby については本記事では詳しくは触れません。もしよろしければ、 僕が以前執筆したブログエントリ や巷のイイカンジの記事など参考にしていただければ幸いです。 順序としては 1) 前述の I-D で定義される Key ヘッダについて簡単に説明を行い、 2) ts_mruby
二年ぶりぐらいにメジャーバージョンが更新されました。[公式リリース] [ダウンロード] 今回の目玉機能としてHTTP/2対応とDirectorのConsistent Hash対応があります。 なにはともあれ、とりあえずHTTP/2を使うセットアップをしてみましょう。 Hitch1.4.0+Varnish5でHTTP/2を使う Varnishはよく知られてるようにHTTPSに対応していません。 HTTP/2に対応したこのバージョンにおいても、やはり本体では対応をしていません。 そのため通常のブラウザからVarnishに対してHTTP/2にアクセスするにはTLSを解かなくては行けません。 今回はVarnishSoftwareが提供しているHitchを利用します。 なお、HTTP/2を利用するには1.4.0以降のバージョンが必要です。 また、一部ディストリビューションではパッケージが提供されてい
データインテグレーション部 大矢です。 DBのテストデータをExcelで書くことはよくあると思います。 今回はExcelで書いたデータをEmbulkでDBにロードする、ということをやってみようと思います。 使用した環境は以下のとおりです。 Embulk v0.8.13 Digdag v0.8.16 PostgreSQL 9.5.3 Mac OS X El Capitan version 10.11.6 ExcelのデータをPostgreSQLにロードする 作業ディレクトリ 先に今回の作業で使用するディレクトリ構成を示しておきます。最終的にはこうなります。 excelload ├── allsheet.dig └── embulk ├── sales.yml ├── testdata.xlsx └── users.yml Excelのテストデータ ロードするデータ Excelのテストデータシ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く