Code Archive Skip to content Google About Google Privacy Terms
Kuwataさんが、料理のあいまにワシワシとPythonでプログラミングしていて、僕は眺めているだけです。眺めるために、一応Pythonコードが読めたほうがいいかな、と思ったので(イマサラかよ>自分)、Python 2.6 をいじってみました。 対話的処理系をシェルとして使う 対話的処理系を起動して、とりあえず普通のシェルのように使いたいんだけど、どうしたらいいんだろう? -- osモジュールの関数を使えばよさそうです。 >>> import os >>> os.getcwd() 'C:\\tmp' >>> os.listdir(".") ['#dump.c#', 'a.exe', ...(省略)...] >>> os.mkdir("pytest") >>> os.chdir("pytest") >>> os.getcwd() 'C:\\tmp\\pytest' >>> os.listdi
Hadoop では一つのノードあたり複数ディスクを使うことができますが,ディスクを増やすことによってどれくらい性能が向上するか調べました. HDFSで使用するディスクをdfs.data.dirにコンマ区切りで記入することで複数使えます. <property> <name>dfs.data.dir</name> <value>/data/local/${user.name}/hadoop/dfs/data, /data/local2/${user.name}/hadoop/dfs/data</value> </property> しかし,これだけではまだダメで,mapタスク,reduceタスクが中間データを書き込むディスクも複数指定しなしとHadoopのジョブで複数ディスクを効率良く使えません.mapred.local.dir で設定可能です. <property> <name>mapre
© 2018 This website is not sanctioned or approved by any manufacturer or tradename listed. FANUC Ninja is not an authorized distributor or representative for the listed manufacturers, which is why we can offer such great pricing. Designated trademarks, brand names and brands appearing herein are the property of their respective owners.
昨日まで目黒雅叙園で開催されていた「Developers Summit 2010」。TwitterのTLを眺めていても、雪降る東京の寒い街中で、本当に熱い熱気に包まれていましたよね! # http://labo.artry.net/devsumeet/tweets そのクラウド構築事例のセッションにて、Amazon EC2での構築・運用事例として発表させていただいた資料を公開します。 # 使っているフォントが悪いのか、崩れている部分が多く、少々見辛くて恐縮ですが。 クラウドサービスAmazon EC2を活用した「SKIPaaS」構築事例 from Yuuki Namikawa 正直、前日までどういう内容の話にしようか、かなり迷っていました。来場いただく方々がどういった内容を求めているのか、期待されているのか、を掴みきれずに。 しかし、いただいている時間が、テクニカルセッションであることと、
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く