According to me Amazon VPC is one of the most important feature introduced by AWS. We have been using AWS from 2008 and Amazon VPC from the day it was introduced and i strongly feel the customer adoption towards AWS cloud gained real momentum only after the introduction of VPC into the market. Amazon VPC comes with lots of advantages over the limitations faced in Amazon Classic cloud like: Static
要件 chef-solo と knife を使いたい 新規に chef をインストールすることは出来る 既に稼働中の環境に Chef というシチュエーションもあるはず なので CentOS 5.x な環境に Chef-solo をインストールするぞ 環境 CentOS 5.8 x86_64 いきなり問題点 ruby のバージョンが古い 当然 gem install chef --no-ri --no-rdoc なんてしたら abort ruby のバージョンアップをしなければ... でも、面倒そう... ruby のバージョンアップをしよう 下準備 checkinstall を使って rpm からインストールしようという算段なので、それに必要なパッケージをインストール sudo yum install rpm-build sudo yum install gcc sudo yum inst
こんにちは! ツカノ(@snuffkin)です。 ElasticsearchとKibanaを使うとログなどを簡単に可視化できるため、利用者が急速に増えてきています(私もそのひとりです)。様々なブログで紹介されているKibana画面はとても素敵で、積極的に使いたくなります。 ただ、それなりの規模でElasticsearchを利用するには、中身を知ったり、データ設計や運用面なども考える必要がありますが、そのあたりの情報はまだ十分ではないように思います。そこで、Elasticsearchの中身をもっと知るために、ひとりでひっそりソースコードリーディングをしてみました。 今回利用したElasticsearchのバージョンは1.0.0.RC2です。以下の場所から実行媒体とソースコードをダウンロードして確認しています。また、確認はWindowsで行っています。 実行媒体 http://www.elas
CIって? CIはContinuous Integration(継続的インテグレーション)の略です。 継続的インテグレーションとは、ソフトウェア開発手法において、プロジェクトメンバーがそれぞれ開発した結果を頻繁に結合し、定期的にビルドやテストを行うことである。問題点を早期に摘出することができ、効率的な開発に役立つ。 不具合は早く見つける方が対策費用が抑えられるため、ソフトウェアのビルドを頻繁に行うのが好ましく、ビルド結果が正しいことを検証するためにすぐにテストを行う。このような手続きは出来る限り自動化するのが好ましい。そのため、継続的インテグレーションを実践するためには、結合のためのビルドとテストの自動化のために「CIサーバー」などと呼ばれる専用コンピュータを用意することが推奨されている。 ちなみに、ソフトウェア開発手法のひとつである「エクストリームプログラミング」では、継続的インテグレー
lodash.js moment.js mocha.js sinon.js chai.js es5-shim どんなにライブラリを導入しても、顧客との心の距離は一ミリも縮まりませんでした。
JavaScriptやCSSの結合や圧縮などいろいろな事を自動で処理してくれるGruntですが、もう話題になってずいぶん立ちますが今更ながら入れてみましたのでその方法です。 前にGruntの話題で盛り上がった時に試してみたのですがどうしても動かず原因もわからずで止まっていたのですが、情報も増えてきたので再チャレンジでした。 結果的に原因もわかったのでGruntの入れ方と基本的な使い方を書いておこうと思います。 node.jsのインストール Gruntを使うためにはnode.jsが必要になりますので、以下のサイトからnode.jsをダウンロードします。 node.js ダウンロードしたものを実行します。 これでnode.jsがインストールできたはずです。 コマンドを起動 次にコマンドを起動します。「管理者として実行」をクリックします。 まずはnode.jsが入ったか確認してみましょう。以下の
http://nodeup.com/fiftyfour 1 comment | 0 points | by WazanovaNews ■ comment by Jshiike | 約3時間前 Trelloのアーキテクチャについてのアップデートです。2012年1月にブログで紹介されたものと、昨年11月の最新状況をまとめてみます。 まずは、当初のアーキテクチャ: UIをクライアントサイドで生成し、プッシュでの更新を受け入れるシングルページアプリ。Client/ServerともにJavaScript、2011年5月以降はCoffeeScriptで書いている。 1) The Client TrelloのサーバはHTML、クライアント側のコードをほぼ扱っていない。Trelloのページは2Kのシェルで、一つの圧縮されたJavaScriptファイル(サードパーティのライブラリと圧縮したCoffeeSc
こんにちは! ツカノ(@snuffkin)です。 最近、STAP細胞のニュースで賑わっていますね。iPS細胞と比較する記事が多いですが、たまにはES細胞のことも思い出してあげてください(ES細胞だってノーベル賞を取っているんですよ~)。まぁ、IT業界的にESと言えば、Elasticsearchのことを指す訳ですが、こちらはトレンドなプロダクトで、Marvelが登場したりと、まだまだ広がっていく感じがします。 Elasticsearch+Kibanaは本当に便利で、様々な方が取り組まれており、情報量も急速に増えています。ログをElasticsearchに簡単に入れておくことができ、Kibanaを使って簡単に可視化できるのは良いですよね。 さて、可視化したら、それを後から見ることができるようにファイル化したくなるのが人の心。Kibanaで表示した画面もファイルに落としたいしたいですよね。特に「
Cassandra summit JPN 2014 : 100 node cluster �admin operationRead less
また、EBS最適化インスタンスの検証は、それなりにネットワークトラフィックが高い状況で無いと確認が出来ません。そこでもう1台EC2を起動し、abでHTTPリクエストをガンガン掛けておきます。構成と結果予想は以下のような感じです。 ベンチマークの準備 今回のベンチマークはド定番であるところのfioを使用しました。 作成したEBSをext4、inode=512でmkfsし、特にオプションを付与すること無く普通にマウントします。 $ sudo mkfs.ext4 -I 512 /dev/xvdj $ sudo mkdir /mnt/standard $ sudo mount /dev/xvdj /mnt/standard fioをインストールします。 $ sudo yum -y install rpm-build libaio-devel gcc make $ wget http://pkgs.
ども、大瀧です。みなさん、EC2をバリバリ使ってますか?使いたいときにすぐ使える仮想マシンとして、開発・検証から本番まで幅広く活用されていると思います。 日頃EC2を業務で運用する中で、EC2インスタンスをコピーすると意図しない環境設定に変わってしまうというトラブルが度々あり、cloud-initというツールに拠ることがわかってきました。 「EC2インスタンスのコピーなんて、一旦インスタンスを作成したあとはあまりやらないのでは?」と思われがちですが、EC2独特の制限などもあり、実際の運用では思ったよりも頻繁にインスタンスのコピーが必要になります。インスタンスのバックアップ&リストアなどはイメージしやすいと思いますが、それ以外にも意外なケースとして以下があります *1。インスタンスのコピーは、AMI(Amazon Machine Image:インスタンスのバックアップ)を取得し、新規インスタ
渡辺です。 Redshiftでは、Amazon S3にアップロードしたCSVファイルをデータとしてロードすることができます。 今回のエントリーでは、Redshiftをセットアップし、データをロードするまでの手順を紹介したいと思います。 今回紹介する手順は次のようになります。 データファイルを準備する データファイルをAmazon S3にアップロードする セキュリティグループを作成する Redshiftのクラスタを作成する クライアント用EC2を作成する クライアント用EC2からRedshiftに接続し、Amazon S3からデータをコピーする なお、このエントリーで紹介している手順にある操作における細かいオプションや、他の方法などについては、Amazon Redshift DB開発者ガイド – データのロード処理(2).COPYコマンドの使用などを参照してください。 データファイルの準備
はじめに 飛ぶ鳥を落とす勢いのDockerですが、まだまだ本番環境には使うのは怖いです。 今のところは開発用のRedmine動かすのに使うくらいがちょうどよさそうです。 あらかじめ配布されているコンテナイメージを使って素早くDocker上のRedmineを使い始めてみます。 構成 今回はVagrantでCoreOSを立ち上げて、CoreOS上にRedmineのコンテナを立ち上げる構成とします。 Vagrantのインストール 本記事ではVagrantのインストールの詳細は割愛します。 "vagrant インストール" などで検索してみてください。 CoreOSのイメージダウンロード CoreOSはDockerのホストOSとして必要最小限の機能だけを持った軽量なOSです。 githubにCoreOSのVagrantファイルがあるので落としてきます。
いまはやりのローカルに開発環境をつくる方法です。 一度作ってしまえば環境をコピーするのは簡単そうなのですが、いろいろ覚えないといけないことがあって意外と大変でした。 Vagrant、Chef、BerkShelfがそれぞれ何ものなのかは、、、 他のサイトで確認してみてください(^^;) タイトルでLAMPといいつつも今回はPostgreSQLをインストールしてます。 Vagrantのインストール ここはそんなに問題ないです。 当たり前の話なのですが、、、Boxは本番環境に合わせてちゃんと選びましょう。 例えばCentOSにしたい場合は http://www.vagrantbox.es/ ここからCentOSのURLを選びます。 $ vagrant box add centos http://developer.nrel.gov/downloads/vagrant-boxes/CentOS-6
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く