This is a walkthrough of getting Rails 3 up and running with RSpec and Cucumber. Rails 3 and Rails 2 don’t play nicely together, so I recommend you use RVM to create a separate gemset for Rails 3. (I did all this under Ruby 1.9.1 just for fun. YMMV.) To install the latest rails pre-release (Rails 3 beta 3 at the time of this writing): gem install rails --pre It’s got a lot of dependencies nowadays
Rails で普段開発される方は、 ruby script/console や ruby script/runner は非常に重宝されていると思います。 これらのコマンドは、Web アプリを作成するために作った model のメソッドを、簡単に batch や コマンドラインのインタラクティブアプリに変更することが出来、cron 化やデバッグに大変重宝します。 今回、その script/[hoge] に、新たなスクリプトを1つ追加しましたのでご紹介いたします。 今開発中のアプリで、あるバッチを数秒単位で実行する必要がでてきました。 バッチを定期実行するとき、例えば下記のようなシェルファイルを作成し、 #!/bin/sh RUBY="/usr/local/bin/ruby" DATE=`date +"%Y%m%d"` cd [RAILS_ROOT] $RUBY script/runner
2010年07月12日20:12 CentOS に Hadoop, Pig, Hive, HBase をインストール CentOS5.4 に Hadoop, Pig, Hive, HBase をインストールする備忘録です。まずは JDK をインストールします。JDK6 以上が必要です。 # http://java.sun.com/javase/ja/6/download.html から JDK6 をダウンロード sudo sh jdk-6u21-linux-i586-rpm.bin java -version # 1.6.0_21 次に、yum で簡単にインストールするために、リポジトリを追加します。これでインストールが格段に楽になりますね。 wget http://archive.cloudera.com/redhat/cdh/cloudera-cdh3.repo sudo mv clo
Twitterでは基本的にファイルはLZO圧縮しているようで, 3,4倍のストレージの節約 分割可能 CPUは少ししか使わない IOバウンドのジョブは3,4倍の性能向上 などのメリットがあると言っています.これは使わない手はないということで試してみました. clouderaのこのブログ記事を参考にして進めます. code.google.com/p/hadoop-gpl-compressionもありますが,Twitterが公開している分割可能なのを使います. http://github.com/kevinweil/hadoop-lzo 今回の環境はclouderaのamiをベースにしました. cloudera-ec2-hadoop-images/cloudera-hadoop-fedora-20090623-x86_64 ami-2359bf4 CDH3で,hadopoのバージョンは
分散SCMを使いたい!と思う今日この頃。 仕事ではSVN(Subversion)を使っているのだが、ちょっとしたお試し編集をするためにブランチを作ることに抵抗がある。ブランチは欲しい、大きめな変更をコミット無しで行いたくない、やはり少しずつコミットして進めていきたい。しかし、変更が全て記録されてしまうのがいただけない。ログが残るのは良いことなのだが、本当に使うかどうか未知数な実験的プログラミングのログまで残したくない。使うと決まってから初めて残すようにしたいのだ。 すまん、これまで一緒に仕事をしてきた人々よ。俺はこれまで「ログが残って困ることがなんかある?いらなきゃ無視すればいいだけなんだから、気にするな。ブランチでもなんでもバンバン作ってしまえ!」とうそぶいてきているわけだが…ハッタリかましてました!本当は俺も抵抗があるのだ。 そこで、分散SCMだ。さらにいうと、SVKがいまひとつ気に入
Hire the best. At 10x the speed.Hire the best. At 10x the speed.Screen and interview candidates 10x faster with MOPID AI Recruiter that saves upto 80% of your time and resources. Hiring 100+ positions? Try⚡Blitzhiring⚡for a change!Hiring 100+ positions?Try ⚡Blitzhiring⚡ for a changeWe get it. Large scale hiring costs a lot. What if you could hire the perfect talent AND save up to 80% resources? We
yahoo!が公開しているHadoopのベンチマークツールgridmixを試してみた。 gridmixというのは要するに色々なタイプのジョブを色々なデータセットに対して実行させて、実際の複数人によって使用され、色々なジョブが実行されるhadoopクラスタの負荷をエミュレートするツールである。 単一のhadoopジョブを実行するだけでは分からないようなことも分かる。特にスケジューラーの比較などには良さそう。 今はgridmix3が最新版で、 git://git.apache.org/hadoop-mapreduce.git/src/contrib/gridmix/ にて公開されているが、まずはhadoop-0.20.2にも含まれているgridmix2を試した。含まれているといってもビルドしてやる必要がある ビルド antをインストールする必要があります。 今回使用したantのver
沖縄にコストコができるっていう話は知ってましたが、あまりにも人がオープン待ちしすぎたから3時間半早めて4時半にオープンしたんだとか。意味わからん(っていう表現よく使ってたなーって思い出した)。 多少早めるのはわからなくもないですが、3時間半早めてオープンが午前4時半って・・・オープニングスタッフも電話とかして早くでてもらったんですかねぇ。お疲れ様です。 そんなワタクシはコストコにはいったことはありません。 最初はなんかよくわからない短編が続き・・・と思ったら繋がっていく物語。 ちょいとファンタジーな要素もありましたが、最後の流れはなんとまぁ。殺し屋たちのシンフォニー? バナーのあとに少しネタバレ。 777 トリプルセブン (角川書店単行本) 作者:伊坂 幸太郎 KADOKAWA Amazon コーラはちょっとあっけなかった感じがしなくもなかったけど、ヤツの強さなのか。 オチのもっていきかた
コーヒーとWEBエンジニアリングの小言 jfkはJapanese FK(名前のイニシャル)の組み合わせです! twitterは -> kiyotaman@twitter です! mongodbのデーモン化シェルのサンプルです。 == #! /bin/sh ### BEGIN INIT INFO # Provides: mongo # Required-Start: $all # Required-Stop: $all # Default-Start: 2 3 4 5 # Default-Stop: 0 1 6 # Short-Description: starts the mongodb server # Description: starts mongo using start-stop-daemon ### END INIT
まず、boost のインストール $ sudo port install boost 次に Thrift のインストール http://developers.facebook.com/thrift/ から最新版をダウンロード tar で伸張したディレクトリで・・・ % ./configure —disable-gen-java —without-java % make % sudo make install 最後に各種言語のライブラリをインストール(perl、erlang、haskell) % cd /path/to/thrift/lib/perl % perl Makefile.PL % sudo make install % cd /path/to/thrift/lib % sudo cp -r erl /opt/local/lib/erlang/lib/thrift-0.1 % cd
Since documentation is lacking for Thrift and HBase (and Erlang), though the examples in Thrift’s code are pretty good, I figured as I got things going I’d post snippets. I assume you have Erlang installed, but I will suggest checking out Erlware for setting up Erlang and installing releases and applications. First, download Thrift and HBase. The Thrift instructions are below. However, note you ne
November 22, 2022 Internet Bandwidth Development: Composting the Internet for over Two Decades The instructions for installing the Apache Thrift on the Wiki missed a few key things in terms of installing on Ubuntu (8.04 in my case) and Macintosh OS X Leopard (10.5.6). Gitting the latest source For instance they show you how to get the latest via SVN or a snapshop via wget. But the wget actually ge
Overview Cassandraの書き込みはまずコミットログ(CommitLog)に対して行われます。そしてColumnFamilyごとにMemtableと呼ばれる構造体に対して書き込まれます。Memtableは基本的にキーで参照可能なデータ行のライトバックキャッシュです。つまりライトスルーキャッシュと違ってSSTableとしてディスクに書き込まれる前に、Memtableが一杯になるまで書き込まれます。 Flushing MemtableをSSTableへ変換するプロセスをフラッシュ(flushing)と呼びます。JMX経由で(例えばnodetoolを使用して)手動でフラッシュを実行することも可能です。コミットログのリプレイ時間を短くするためにノードを再起動する前に行った方が良いでしょう。Memtableはキーでソートされ、シーケンシャルに書き出されます。 したがって書き込みは超高速に
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く