server { listen 80; server_name hoge.example.com; location / { add_header Access-Control-Allow-Origin *; add_header Access-Control-Allow-Methods "POST, GET, OPTIONS"; add_header Access-Control-Allow-Headers "Origin, Authorization, Accept"; add_header Access-Control-Allow-Credentials true; proxy_pass http://localhost:8888; } }
Join us on the new NGINX Community Forum to connect with users, discover the latest community activity, and troubleshoot issues together. $ancient_browser $arg_ $args $binary_remote_addr (ngx_http_core_module) $binary_remote_addr (ngx_stream_core_module) $body_bytes_sent $bytes_received $bytes_sent (ngx_http_core_module) $bytes_sent (ngx_http_log_module) $bytes_sent (ngx_stream_core_module) $conne
nginx.conf ��Lª� ��Lª� http { include /etc/nginx/mime.types; default_type application/octet-stream; log_format ltsv 'domain:$host\t' 'host:$remote_addr\t' 'user:$remote_user\t' 'time:$time_local\t' 'method:$request_method\t' 'path:$request_uri\t' 'protocol:$server_protocol\t' 'status:$status\t' 'size:$body_bytes_sent\t' 'referer:$http_referer\t' 'agent:$http_user_agent\t' 'response_time:$request_t
DevCentral Connect & learn in our hosted community MyF5 Your key to everything F5, including support, registration keys, and subscriptions NGINX Learn more about NGINX Open Source and read the community blog NGINX Product Documentation Learn how to deliver, manage, and protect your applications using F5 NGINX products.
はじめに 僕は盲目的にunicornを起動するためだけにnginxを使っていて、設定ファイルの内容とかをほとんど知らない。 なので、ここにnginxの設定内容をまとめる事で自分自身が覚えようと思う。 普段使う大抵の設定は記載しているつもりです。 記載内容は実際に試したものと試してないものが混在してるので、誤った設定などがあるかもしれないのでその辺はコメントでご指摘いただけると助かります。 インストール インストールについては僕が書くより他の人の記事を見た方がいいと思う。 centosに入れるなら以下の記事が参考になる。 CentOS6.xにてnginxの最新版をインストールする手順 CentOS 6.5でnginxを動かす為の最低限の設定 またchefでインストールする場合は以下の記事が役にたつ。 Chefでnginxを導入してみる ChefでNginxをインストールするときにハマった c
SREチームの@cubicdaiyaです。今回はnginxによるTCPレイヤーでのロードバランスについて解説します。 ロードバランサーとしてのnginx nginxはHTTPやTCP、UDP等の複数のレイヤーでロードバランサーとして稼働させることができます。(TCPロードバランサーは1.9.0以降、UDPロードバランサーは1.9.13以降で利用可能です) また、ngx_http_ssl_module や ngx_stream_ssl_module を利用することでそれぞれのレイヤーでTLSを有効化することも可能です。 TCPロードバランサー用のモジュールを有効にする HTTPレイヤーでロードバランスするためのモジュールはデフォルトで組み込まれますが、TCP(とUDP)レイヤーでロードバランスするにはnginxのconfigureスクリプトに--with-stream(あるいは --with
F5 Sites F5 DevCentral Community Discuss tech with F5 experts around the world F5 Labs The latest threat intel and research to help protect your apps MyF5 Your key to everything F5, including support, registration keys, and subscriptions Partner Central Research and support for partners Education.F5.com Training, certifications, and insights about F5 products. Contact F5 Contact F5 Sales Talk to a
複数のアプリケーションインスタンスを横断してロードバランスすることは、リソースの利用の最適化、スループットの最大化、待ち時間の削減、障害耐性の構成のために一般的に用いられる方法です。 nginxをとても効果的なHTTPロードバランサとしてトラフィックを幾つかのアプリケーションサーバに分配するために使うことが可能です。nginxを使ってwebアプリケーションのパフォーマンス、スケーラビリティ、信頼性を改善することができます。 nginxでは以下のロードバランシングメカニズム(あるいはメソッド)がサポートされています: round-robin — アプリケーションへのリクエストはラウンドロビンの形式で分配されます, least-connected — 次のリクエストはアクティブな接続の数がもっとも少ないサーバに割り当てられます, ip-hash — 次のリクエストにどのサーバが選択されるべきか
SPDY(スピーディ)はGoogleがWebページの読み込みの高速化を目指して提唱している通信プロトコルのひとつです。 Googleのみならず、Twitter、FacebookやLINEでも採用されたことで話題になりました。 そのSPDYをnginxに導入する手順を紹介します。 導入後、本当にWebページの読み込みが早くなるのか検証してみます。 SPDYのデモ動画 HTTPSとSPDYの読み込みの速さの違いを6秒の動画で紹介しています。 参考URL Facebook endorses Google’s SPDY networking protocol (FacebookでSPDYを採用) Adopting SPDY in Line – Part 1: An Overview (LINEでSPDYを採用) Twitter、Google提案のSPDYプロトコルを導入 試験環境 Hosting:
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く