タグ

2010年5月26日のブックマーク (12件)

  • PHP ファイルの書式 - Zend Framework PHP 標準コーディング規約

    PHP コードのみからなるファイルでは、終了タグ ("?>") は決して含めてはいけません。これは必須なものではなく、 終了タグを省略することで、ファイルの最後にある空白文字が出力に影響することを防ぎます。 重要: Zend Framework の PHP ファイルやそこから派生したものの中では、 __HALT_COMPILER() を使用して任意のバイナリデータを含めることを禁じます。 この機能は、インストールスクリプトなどの特別な場合にのみ使用します。

    rokujyouhitoma
    rokujyouhitoma 2010/05/26
    は?それってテンプレートエンジン言語として使う場合って認識でOK?「PHP コードのみからなるファイルでは、終了タグ ("?>") は決して含めてはいけません。これは必須なものではなく、 終了タグを省略することで...」一部ry
  • スタンドアローンモードではなく、複数台のサーバーで動かす - yasuhisa's blog

    一台ではえらく簡単だったんだけど 複数台では結構つまづいた できたけどうまく理解できていない できたけど、もっと効率よくできるんじゃないか などなどあったので記録を取っておく。 複数台のサーバーで(mapとかreduceを)動かすための鍵になるコマンドがあって、それはhadoop dfs。一台で動かしていると(たぶん)使わないコマンド。map&reduceするためのRuby(orその他のスクリプト)をhadoopで動かしたいサーバーに浸透させないといけない。scpなどのコマンドを使って、全てのサーバーにコピー...とかをやるわけではなく(同期とかを考えるとめんどくさそう...)、hadoopがその付近をやってくれるらしい。ついでに言うと、普通のファイルシステム上にコピーとかをしているわけではなく、hadoop上のファイルシステム上にコピーをするようです。そういうわけで「ファイルちゃんと置い

  • 「自然言語処理は Python がいちばん」について

    http://d.hatena.ne.jp/mamoruk/20090327/p1 「いちばん」かどうかはわかりませんが、うちの会社の製品ではpythonを主力に使った自然言語処理を含む製品を販売しているので、実際の感想を。 うちでは、pythonを元データの整備のための運用バッチ処理から、客が最終的に手にする情報の生成、実際に客が使うWEBインターフェースまで、pythonを主力にしています。 別のチームが作った別の製品ではS2Struts(JAVAね。)でWEBを作っている部分もありますが。 自然言語処理はぶっちゃけどの言語でも可能だとは思います。 mecabが使えて、Unicodeが使えて、正規表現が使えれば、まあ、どの言語を使ってもそんなに大差はないのではないでしょうか。 あとはsennaのような日語用の全文検索エンジンなども使いますが、そこらへんに近い部分は基的にC++で書き

    「自然言語処理は Python がいちばん」について
    rokujyouhitoma
    rokujyouhitoma 2010/05/26
    この会社は熟達者がいるよい会社だろう。プロジェクトとメンバによるけど、S2StrutsよりDjangoなのは同意。
  • ノート/テキストマイニング/NLTK - 東邦大学理学部情報科学科 山内のサイト

    サイトトップ ノート マイニング ├マイニング ├バスケット解析 ├バスケット解析をRで ├図書貸出をRで └ テキストマイニング ├テキストマイニングTM ├TMとシソーラス ├PubMedをTM ├TMとMeSH ├TMとNLTK ├テキストマイニングとtagger ├医薬品添付文書DB ├論文の処理1 └ 分子進化学 ├分子進化学 └ Pythonと論文アクセス ├Pythonを使ってみる ├PythonPubMedPythonで...続き └ CUDA ├GPUProgrammingGuide ├Selandメモ ├数値積分 └ ACS、PHPからLDAP ├ACS導入 ├新規ホスト移行 ├再度やり直し ├OpenLDAP導入 └ Linuxでビデオ ├Linuxでビデオデータを作る ├AVIフ

  • 東工大の次期スパコン構築 NEC・HP 連合が受注 | [GSIC]東京工業大学学術国際情報センター

    TSUBAME2.0 は、2006 年 4 月に我が国最速のスパコ ンとして稼働し 4 年以上に渡って学および国内外の産学官の種々の研究開発を支えてきた TSUBAME1.0 の後継機種。学の学術国際情報センター(GSIC)が中心となって TSUBAME1.0 をベースに高性能科学技術計算(HPC)のシステム構築研究を進め、その成果をもとに国内外のコンピュータメーカーと 2 年近く共同開発してきた。 具体的な構築について、共同開発各社の中で NEC・HP 連合が政府調達による入札で 25 日に落札した。その理論最高性能は 2.4 ペタフロップス(1 秒間に 2400 兆回の浮動小数演算 が可能)と世界最高レベルであり、TSUBAME1.0 に比べ 30 倍、我が国で現在最高速の独立行政法人 日原子力研究開発機構の新スーパーコンピュータシステム比で約 12 倍の性能 を誇る。 TSUB

  • PythonのGCについて

    PythonのGarbageCollection 原文 Neil Schemenauer (翻訳:中村 成洋) ポータブルなGarbageCollection 概要 循環参照はリスト,タプル,インスタンス,クラス,辞書,関数に伴って見つかります. インスタンスの __del__ メソッドは正常に取り扱われます. 新しいタイプをGCの対象に追加するのは簡単です. このGCが有効なPythonは,通常のPythonとバイナリ互換です. 世代別GCが動いています(今は三世代).このオーバヘッドをpybenchで測ったら,大体4%くらい占めていました. 実質的に,すべての拡張モジュールは,不変に(私は,標準的な配布において 新しいものとcPickleを修正しなければなりませんでした)ならなければなりま せん.gcと呼ばれている新しいモジュールは,コレクターを調整して,デバッ ギングオプションをセッ

    rokujyouhitoma
    rokujyouhitoma 2010/05/26
    Pythonのガーベージコレクションの話。PythonVMをクラッシュさせる過程で出会う。
  • Hadoop では Sun JDK 1.6.0_18 は使用できません

    rokujyouhitoma
    rokujyouhitoma 2010/05/26
    SunJDK1.6.0_18ではHadoopがクラッシュするとの噂を(ry
  • 第3回 Cassandraのデータモデルを理解する | gihyo.jp

    前回までの説明でCassandraのインストールと動かすところまでいきました。今回はCassandraのデータモデルを理解して、実際にデータにアクセスしてみましょう。 データはすべて4次元または5次元の連想配列 Cassandraのデータは非常にシンプルなデータモデルを持っています。データはすべて4次元または5次元の連想配列のようになっています。 4次元の場合は以下の形で値にアクセスします。 [キースペース][カラムファミリ][キー][カラム] そして5次元の場合は以下の形でデータを特定します。 [キースペース][カラムファミリ][キー][スーパーカラム][カラム] Cassandraのデータモデルは以下の4つの概念で成り立っています。 カラム: データの最小単位。実際のキーと値、そしてタイムスタンプを持つ。 スーパーカラム: カラムの集合を扱う単位。 カラムファミリ: カラムまたはスーパ

    第3回 Cassandraのデータモデルを理解する | gihyo.jp
  • こっちは本物のMapReduceだ! グーグルがAppEngine-MapReduceをオープンソースで開発中

    こっちは物のMapReduceだ! グーグルがAppEngine-MapReduceをオープンソースで開発中 グーグルGoogle App Engine上でMapReduce処理を実現するオープンソースを開発中だと、先日行われたイベントGoogle I/Oで明らかにしています。プロジェクトのホームページもGoogle Code上に「appengine-mapreduce - Project Hosting on Google Code」として公開されています。 Reduce処理やJava版はこれから 1つ前の記事「グーグルによるMapReduceサービス「BigQuery」が登場。SQLライクな命令で大規模データ操作」では、グーグルSQLライクな命令を用いて大規模データ処理のサービスを提供することをお伝えしました。 記事でも書いたとおり、これは内部でMapReduceを使っているかど

    こっちは本物のMapReduceだ! グーグルがAppEngine-MapReduceをオープンソースで開発中
  • グーグルによるMapReduceサービス「BigQuery」が登場。SQLライクな命令で大規模データ操作

    「数兆件のデータも対話的に、高速に分析できる」。グーグルは5月19日にこのような表現で新しいサービス「BigQuery」の登場を紹介するエントリを、ブログにポストしています。 グーグルが公開したBigQueryは、Hadoopやデータウェアハウスなどを用いて多くの企業が行おうとしている大規模データ(いわゆる「Big Data」)の分析を、グーグルのクラウドで可能にします。利用者はGoogle Storage経由で大規模データを転送し、SQLライクな命令によって抽出や分析を行います。 まるでグーグルが大規模データ処理のMapReduceをホスティングし、その機能をサービスとして提供するようなものがBigQueryといえます(ただし公開された「BigQuery」の説明には、内部でMapReduceを利用しているのかどうかの記述はないのため、MapReduce「的」なサービスと表現すべきかもしれ

    グーグルによるMapReduceサービス「BigQuery」が登場。SQLライクな命令で大規模データ操作
  • 月刊 Python 読みたい - Twisted Mind

    月刊 Python 6 月号 posted by (C)voluntas @wozozo GJ

    月刊 Python 読みたい - Twisted Mind
    rokujyouhitoma
    rokujyouhitoma 2010/05/26
    「Phythonという奇跡」がきになるなw例のPHPでっての?
  • asahi.com(朝日新聞社):図書館HPにアクセス3万3千回 業務妨害容疑で男逮捕 - ネット・ウイルス - デジタル

    愛知県の岡崎市立図書館のホームページに集中的にアクセスし、閲覧しにくくしたとして、愛知県警は25日、ホームページ作成会社社長中川圭右(けいすけ)容疑者(38)=同県知立市東長篠1丁目=を業務妨害の疑いで逮捕し、発表した。  県警生活経済課と岡崎署によると、中川容疑者は、4月2日から15日にかけて、岡崎市立中央図書館のホームページに、計約3万3千回のアクセスを繰り返し、ホームページを閲覧しにくい状態にした疑いがある。  同図書館のホームページ管理用サーバーには、3月中旬からの約1カ月間に、中川容疑者の自宅のパソコンなど特定の端末から計約6万4千回のアクセスがあり、その影響でホームページの閲覧は21回停止されていた。  同課によると、中川容疑者は1回ボタンを押すだけで、1秒に1回程度の速度でアクセスを繰り返せるプログラムを作っていたという。中川容疑者は同図書館の利用者だったが、目立ったトラブル

    rokujyouhitoma
    rokujyouhitoma 2010/05/26
    まじで?僕も逮捕されるかもしれないじゃん!!図書館のIT担当者仕事しろよ。いいこと思いついた。2アクセス目で倒れる仕組みにして、1アクセスは業務で使う。これで大量検挙だ!!