みなさん、ごきげんよう。プレイドの@tik-sonと申します。 私たちはKARTE [https://karte.io/]というリアルタイムでウェブ接客ができるサービスを提供しており、 KARTEの売りであるリアルタイム性を保てるように、日々インフラを磨きこんでいます。 このエントリーでは、そのインフラの仕組みについて一部を紹介していきます。 今回は「1年で4億UUを解析したKARTEを支える

どうもどうも乙カレー様です。桑野です。 びっくりするほどブログ書いてなくてびっくりしてます。半年書いてないやん。 Terraformを使っていたりするんですが、最近EC2のAutoScaleを入れようとして辛いことがあったりしたのでちょっとまとめてみます。 Terraform Terraformは言わずとも知れたHashicorpさんのプロダクトですね。 インフラ構築をコード化してGithub等でレポジトリ管理することによって履歴管理や、プルリクエストベースの構築ができるのが売りだったりします。 TerraformでのAutoScale時のハマりどこ 端的にいうとこの2つです。 Terraform経由で実行した際のLaunchConfiguration(イカLC)とAutoScalingGroup(イカASG)の削除の順番が逆 LC内のuser_data更新で一網打尽になる Terrafo
Auto Scaling環境でのBlue-Green Deploymentの切替がAWS ELBでできるようになりました。 超おはようございます。最近パンケーキを昼食にできるようになった城内です。 今回は、Auto Scalingのアップデートにより、AWSでのBlue-Green Deploymentの方式に新たな選択肢が増えたことを喜びたいと思います。 Auto Scalingのアップデート 先日のAuto Scalingのアップデートにより、Auto Scalingグループに対するELBの付け外しができるようになりました。 Attach or Detach Load Balancers in Your Auto Scaling Group (What's New) Attach and Detach Elastic Load Balancers from Auto Scaling G
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事は、AWS Advent Calendar 2014 の12日目の記事です。 AWSを利用したゲームの運用を行い約1年半、この記事ではAWSのスポットインスタンスを利用した取り組みについて簡単に紹介したいと思います。 なお、こちらの記事は、2014年7月17日(木)~18日(金)に行われたAWS Summit 2014 Tokyoの「Tech Deep Dive By Customers」トラックで発表させて頂いた「AutoScale×ゲーム ~運用効率化への取り組み~」のスポットインスタンスの利用についての簡易版となります。
はじめに こんにちは植木和樹です。既存システムのAWS移行の仕事などをやっていると、移行時にAutoScaling構成にすべきかどうか?という検討をする機会があります。AutoScalingにしておくと高負荷や障害にも強いシステムが構成できるのですが、システム移行となると色々と既存構成を変更しなければならないことが多いです。 そこで今回はこれまで関わった案件でAutoScaling化する上で検討しなければならなかった点を、頭の中の整理を兼ねてまとめてみました。 AutoScalingとはなにか? 「Auto Scaling (仮想サーバーAmazon EC2 の処理能力の自動拡張・縮小機能)| アマゾン ウェブ サービス(AWS 日本語)」では3つのユースケースが紹介されています。 Amazon EC2 群を自動的に縮小・拡張 規模を固定して Amazon EC2 群を管理 Elastic
最近業務でAWSのAutoScale機能を利用してサービスの運用をしています。 そこで培ったノウハウや設定内容を記載していこうと思います。 まず、AWSで利用できるAutoScaleの設定では主に2通りの方法がある。 ・負荷によるサーバの増減 ・指定時間によるサーバの増減 どちらの増減方法においても、AutoScalingGroupを作成し、そのグループに対してアクションを設定することになります。 AutoScaleで設定する内容 1: LaunchConfigの設定 - オートスケールで起動させるインスタンスのAMIを指定 2: AutoScalingGroupの設定 - オートスケールさせるサーバグループの設定 3: ScaleOutPolicy or ScaleInPolicyの設定 - スケールアウト or スケールインの設定 4: ScaleOutAlerm or ScaleIn
CDP Advent Calendar 2012に登録しました。ここ1年ちょいで使い慣れてきたパターンがあり、作った当時はクラウドデザインパターンはなかったのですが、Clone ServerとScale Outパターンの組合せに当てはまると思うので紹介します。ちなみにアプリはRails。 常にデプロイして更新し続けるシステムを手動、あるいは自動スケールアウトする時に便利な手法だったりします。 図にするとこんな感じですかね。 Auto Scaling設定 Launch Config まず、ベースとなるAMIの起動インスタンスサイズやセキュリティーグループを定義したLaunch Configを設定。 as-create-launch-config cdp-lc --image-id ami-22a51d23 --instance-type m1.small \ --group cdp_web,
AutoScaling は時間が掛かる? Auto Scaling はポーリングで動くため、実際にスケールされるまで時間が掛かります。 また、CloudWatch を組み合わせたり、ELB を使っている場合、データ収集やヘルスチェックについてもポーリングで動くため、実際にアクセス可能になるまで時間が掛かってしまいます。 事前に予測できる負荷の場合、Auto Scaling では、予めスケジュールを指定して負荷に対応することができます。 ※過去にほぼ同じ内容のエントリがありますが、今回 aws cli 版で試したので執筆することにしました。。 https://dev.classmethod.jp/cloud/auto-scaling-schedule/ 手順 前提 以下が事前に設定済みとします。 AWS Command Line Interface(http://aws.amazon.com
9. 現状の問題点 • 設定方法が複雑 • 設定箇所が複数ありイメージが困難 • Management Consoleで設定出来ない • ブログなどで公開されているものの、手順だけを 記載したものが多い 使いはじめるにはハードルが高い
こんにちは。望月です。 今朝方、Auto Scaling Groupに複数の大きな機能追加がありました!その内の一つが、既存のAuto Scaling Groupで起動中のインスタンスを、Auto Scling Groupの管理外にすることができる、という機能です。早速試してみました! 背景 Auto Scalingを構成する要素に、Launch ConfigurationとAuto Scaling Groupの2つが存在します。ものすごいざっくりと説明すると、Launch Configurationでは「インスタンスをどういった設定で起動するか」ということを設定します。Auto Scaling Groupは、「どのLaunch Configurationから何台を起動するか」を設定します。 今までは一度Auto Scalingで起動したインスタンスは、常にAutoScalingの監視下に
For customersCustomer supportSubscription managementSupport casesRed Hat Ecosystem CatalogFind a partnerFor partnersPartner portalPartner supportBecome a partner Try, buy, & sellRed Hat MarketplaceRed Hat StoreContact salesStart a trialLearning resourcesTraining and certification Hybrid cloud learning hubInteractive labsLearning communityRed Hat TVArchitecture centerOpen source communitiesGlobal a
25. Auto healing ❖ AutoScalingGroupではdesired-capacityの数に! インスタンス台数が調整される。! ※desired-capacityは以下の範囲内で設定! min size =< desired-capacity =< max size ❖ 突然の死があってもインスタンスが再作成される! ❖ spotインスタンスと組み合わせれば、spot価格高騰で削 除されても、再作成される 26. Auto Healing ELB配下の一部をspotインスタンスで用意し、Auto scaling Groupは分ける! ! spotインスタンスが全滅してもアプリケーション的には耐えられる台数にしておく! ! ※c1.xlargeをspotインスタンスでたてると$0.192/hなので! オンデマンド価格$0.740/hと比べて3分の1以下
ども、大瀧です。げんしけん 二代目の伍(14)、波戸くんが煮詰まってきていい感じですね、次巻の展開に期待!! さて、今回はAWSで最もわかりやすくElasticしてくれる(?)機能としてお馴染みの、Auto Scalingの上級編な話題です。 ここがムズいよAuto Scaling AWSのAuto Scalingは、EC2インスタンスを自動でCreate/Terminateする機能として負荷分散や可用性向上のためによく使われる機能です。 しかし、Management Consoleでは作成できなかったり、使うために必要な設定が比較的多かったりと、敷居が高い印象があります(実際はそんなことないんですけどね)。 Auto Scalingでインスタンス数を設定するパラメータは3つ、Min Size(最小数)/Max Size(最大数)/Desired Capacity(今回の話題)があります。
Best Practices in Evaluating Elastic Load Balancing : Articles & Tutorials : Amazon Web Services http://aws.amazon.com/articles/1636185810492479 ==== 概要 ELBを最もよく評価するには、ELBのアーキテクチャを理解する必要がある。本稿は、AWS ELBの機能と独特なアーキテクチャについて述べる。ベストプラクティスを提供することで、ELBをテスト・評価する際に一般的な落とし穴(pitfall)から避けられるようになる。このホワイトペーパーが対象としている読者は、ELBの経験が少ないが、過去にH/W,S/Wのロードバランサを使ったことがあるような開発者である。 ELBの概要 ELBは、複数のEC2インスタンスへ、自動的にトラフィックを分散する。単
1. © 2012 Amazon.com, Inc. and its affiliates. All rights reserved. May not be copied, modified or distributed in whole or in part without the express consent of Amazon.com, Inc. AWSマイスターシリーズ CloudWatch & Auto Scaling 2013.6.26 アマゾンデータサービスジャパン株式会社 ソリューション アーキテクト 今井 雄太 2. © 2012 Amazon.com, Inc. and its affiliates. All rights reserved. May not be copied, modified or distributed in whole or in part
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く