https://jawsug-container.connpass.com/event/109162/ JAWS-UG コンテナ支部 #13 の発表

F5 Sites F5 DevCentral Community Discuss tech with F5 experts around the world F5 Labs The latest threat intel and research to help protect your apps MyF5 Your key to everything F5, including support, registration keys, and subscriptions Partner Central Research and support for partners Education Services Portal (ESP) Training, certifications, and insights about F5 products. Contact F5 Contact F5
You can find (just about) anything on Medium — apparently even a page that doesn’t exist. Maybe these stories will take you somewhere new?
Makes outgoing connections to a proxied server originate from the specified local IP address with an optional port (1.11.2). Parameter value can contain variables (1.3.12). The special value off (1.3.12) cancels the effect of the proxy_bind directive inherited from the previous configuration level, which allows the system to auto-assign the local IP address and port. The transparent parameter (1.1
同僚が解決してくれた問題。 Web アプリが 500 を返す頻度が増えてきた。nginx のエラーログを見ると次のような行が多発している。 2013/00/00 00:00:00 [crit] 23907#0: accept4() failed (24: Too many open files) 話としてはこのへんと同じもの。 nginx で Too many open files エラーに対処する - Shin x blog nginx はひとつのプロセスが複数のリクエストをあつかうモデル。1 プロセスが開くことができるファイルディスクリプタの数が足りなくなると上記のエラーが出るそうだ。 よって見るべきはシステム全体のファイルディスクリプタ数上限と nginx のプロセスごとの上限の 2 箇所だ。 fs.file-max システム全体のファイルディスクリプタ数上限は fs.file-ma
本記事は英語版ブログで公開された記事の翻訳版です。 2013年7月に、米国テキサス州オースティンで開催されたLonestar Ruby Conferenceで、Rubyによるアプリケーションサーバーについてお話させていただきました。その中でいくつかのRubyアプリケーションサーバーのパフォーマンスや、さまざまな状況における挙動の違いを比較しました。この記事では、講演準備として行ったリサーチの中で分かったことをかいつまんでご紹介します。 実際のカンファレンスの録画をご覧になりたい方は、Confreaksで公開されていますのでそちらをご参照ください。テストに使用した簡単な自作アプリケーションはGitHubに、講演スライドはSlideshareにそれぞれ公開しています。 このリサーチは、Passenger 4のパフォーマンス評価以外すべて2013年7月に行ったものなので、情報が多少古くなっている
I was looking everywhere, but I could never find a good guide that explains how to configure Nginx with PHP-FPM for a heavy server load, so I hope this is the place where I will find my answer. I have a 24 core server with 32GB RAM with Centos 5.6 which is running Nginx 1.0.2 web server with PHP-FPM (PHP 5.3.5) which is hosting a website that is running some very easy and fast php scripts which ar
AMIが公開されたのでもう一度やってみた。 AMIについてはこちらのエントリに書かれています ISUCON4 予選問題の解説と講評 & AMIの公開 : ISUCON公式Blog まず ami-e3577fe2 を m3.xlargeで起動します。 CPUは model name : Intel(R) Xeon(R) CPU E5-2670 v2 @ 2.50GHz でした。 とりあえず、MySQLのindexを追加する。init.shに追加 $ cat init.sh cat <<'EOF' | mysql -h ${myhost} -P ${myport} -u ${myuser} ${mydb} alter table login_log add index ip (ip), add index user_id (user_id); EOF ベンチマークツールのhttp keepal
Nginxチューニング nginx最大限にスピードを出すために、設定パラメーターをチュニングしました。 nginx設定例 user www-data; pid /var/run/nginx.pid; worker_processes auto; worker_rlimit_nofile 100000; proxy_set_header X-Real-IP $remote_addr; proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; events { worker_connections 2048; multi_accept on; use epoll; } http { server_tokens off; sendfile on; tcp_nopush on; tcp_nodelay on; access_log o
はじめに下記の記事をみたら分かりやすいかもしれませんが、英語なので、実際にやった方法も交えてメモしておこうと思います。(似てるところもありますが、翻訳ではありません。) Writing a Go (“golang”) Web App with nginx, FastCGI, MySQL, JSON 前提として、Go言語でWebサーバーをつくって動かすと言うと2種類の方法があります。 1つは、Go言語の“net/http”パッケージというのがありますので、これを使ってGo自体でWebサーバーを作ってしまうことができます。 もう1つは、ApacheやNginxなどのWebサーバー上で、CGI(正確にはFastCGI)としてGo言語を動かす方法です。これはNginx+PHP-FPMのようなもに近いイメージだと思います。 Nginxを使うか使わないかは、こちらのStackoverflowをみると、
前回のDynamoDBに引き続き、今回はfluentd経由でnginxのログをHDFSに書き込む、というのをやってみた。そのまま置き換えるだけというのもつまらないので、同じログをローカルファイル、DynamoDB、HDFSの複数箇所に書き込む設定にしてみる。紆余曲折あったが、どうにか三連休が終わる前に期待値通りになってくれた(それって…)。 実行環境は以下2つのAWSマシンと、Amazon DynamoDB。テーブルは前回で作成済み。 マシン間はすべてのポートで通信できている前提。 ログ送信元マシン:nginxが起動 ログ出力先マシン:Hadoop疑似分散環境 real worldでは複数のマシンからログを集約してそのログ集約サーバからHDFSやDBにログを送り込むことになるんだろうけど、所詮ひとりケチケチR&Dなのでそこまでやりません。 追加でやったこと。 ログ送信元マシンでwebhdf
ツチノコブログのWEBサーバベンチマークツール比較の記事で紹介されていた。WebサーバのG-WAN。この記事によると凄く速いようです。 Intel Xeon E5-2640 (6コア/12スレッド 2.50GHz) を2つというサーバで gwan 334944 req/s nginx 111842 req/s と、速いと言われているnginxの3倍の速度を出しています。 このベンチマーク結果がとても気になったので、なぜG-WANが速いのか、自分でも検証してみました。 結論から言うと以下の2つ。 1) G-WANはデフォルトで物理CPUに合わせた数のスレッドを起動する 2) HTMLファイルも一度読み込んでキャッシュする という事です。 今回はAWSのcc2.8xlarge(E5-2670 8コア/16スレッド 2.60GHz *2)を使ってベンチマークを行いました。OSはAmazon L
DevCentral Connect & learn in our hosted community MyF5 Your key to everything F5, including support, registration keys, and subscriptions NGINX Learn more about NGINX Open Source and read the community blog NGINX Product Documentation Learn how to deliver, manage, and protect your applications using F5 NGINX products.
In this tutorial, I’ll walk you through the concept behind using puma + NGINX, plus thorough instructions on setting them up on CentOS and Ubuntu. Concept Many people who come from the old Apache HTTPd day often ask me how reverse proxy + web server work? “It’s different paradigm” Reverse proxy software (such as Varnish or NGINX) would acts as a load balancer that routes all external requests to a
14:30 | Keep-Alive on / off に関する文献の多くが曖昧であることが気になっていたので、まとめてみました。Apacheのドキュメントから、Keep-Aliveの説明を拝借しますと、HTTP/1.0 の Keep-Alive 拡張と HTTP/1.1 の持続的接続の機能は、複数のリクエストが同じTCPの接続で送られる、長時間持続する HTTP セッションを提供します。つまり、Keep-Aliveは、『TCP 3ウェイハンドシェイクの節約』であるという点を理解しなければなりません。たいていの文献は『画像やCSSが多いサイトでは、接続を使い回すことにより無駄遣いをなくす』という説明をしていますが、この接続を使い回すという表現も曖昧な気がします。何となく分かった気になってしまう人も多いのではないでしょうか。それでは、まずは以下のようなhttpd.confで、Apacheの動
- all - Joschka Paul stefan Eva Daniels BlogClaudia Martin Nerdy tech-fun(k), nonsense and everything in between and above. When nginx is being used as backend server, it will talk plain "http" to the frontend server only (for performance reasons and to simplify setup). But web applications often need to know, if the traffic between the browser and server is encrypted (https), e.g. when checking i
追記 Wed Jan 11 10:53:25 JST 2012 本では「並記」じゃなくて「並置」と書いてました nginxの本(ハイパフォーマンスHTTPサーバ Nginx入門)を読んで、なるほどと思ったメモ。 例えばapacheのmod_rewriteのこんなのを RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule . /index.php [L]nginxで実現しようとすると、素直にはいかない。 nginxのifは、if-elseも無いし、if andも無いし、ifのブロックの中に更にifを書けないので。 なので変数を使ってこのようにする手法が載っていた。 set $check ""; if (!-f $request_filename) { set $check "A"
久々に技術ネタです。 EC2のElastic Load Balancing便利ですねー。とっても便利です。 何が便利かってSSLをロードバランサーに設定出来るんですね。なので、いちいちインスタンス側に設定しなくてもすみます。 具体的にはまず80番ポートだけでELBを作ります。このあたりはググればすぐ出てくるので割愛します。 次にSSLの設定を行うんですが、CSRの生成とかもよくある話なので飛ばします。 EC2マネージメントコンソールのLoad Balancersから対象のロードバランサーを選択後ListenerからSSLの設定を行います。 Load Balancer ProtocolにHTTPS(Secure HTTP)を選びます Load Balancer Portは443のまま Instance ProtocolはHTTPでInstance Portは80番のままでOKです Ciphe
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く