あくまでもクライアントのPCの設定時刻基準。 公開NTPサーバから正確な時刻を取得するのはまたあとで。 (追記:2010/01/27 23:51) NiCTの公開NTPサーバならhttpで取得できそうだったから、Ajaxでごにょごにょできるかと思ったんだけど、そんなに頻繁にアクセスするとアレなのでヤメ。 普通にシステム時刻か、サーバ側でやれってことね… var d = new Date(); // クライアントPCシステム時刻 var localTime = d.getTime(); // localTimeのタイムゾーン差分(ミリ秒) var localOffset = d.getTimezoneOffset() * 60000; // UTC時刻(ミリ秒) var utc = localTime + localOffset; // 考慮したいタイムゾーンの差分(時間)ex.バンクーバは
ちょうど一年前に海辺までで点数付けしたけれど、時代の流れや繁栄をやりこまれた上でだいぶ評価が変わったので「基本・陰謀・海辺・繁栄」のカードを再評価してみました! <採点方式> ・4人対戦で白金貨・植民地入り(繁栄入り時は錬金を使わないのが公式ルールなので必然的に錬金は評価対象外) ・全104種類のアクションカードを10点から、5枚、8枚、12枚、15枚、19枚、15枚、12枚、8枚、5枚、5枚 で得点をつける。 10点 仮面舞踏会:初手必ず取るカード。2枚入れてステロもアリ。 策士:アンバランスを作る最強形。部屋、保管庫等で無限策士コンボもしやすくなった。 宮廷:繁栄で一番楽しいカード。これを取ってから本当の戦いが始まる。 ならず者:買った数だけ勝利点トークンがもらえるだけでも強いのに、民兵効果がこの上なくやっかい。 船着場:こいつは強い。本当に強い。 9点 寵臣:10点にしようか最後まで
個人的にテキストファイルを処理することが多いのですが,簡単な処理ならUnixのコマンドをパイプとリダイレクトで組み合わせてできることが多くあります.今回はそんななかでもちょっとマニアックなTIPSをまとめてみました. sortコマンドでタブ区切りのファイルを指定する最近知って驚愕したのがこれ.sortコマンドでタブ区切りのファイルを指定したいときは,Ctrl+v Tabでタブ文字を入力していたのですが,$ sort -t $'\t' -k 2,2 のようにしてタブ区切りで2番目のキーでソートすることができます. 1000行おきにデータをサンプリングする1000行おきにファイルからデータをサンプリングしたいときとかは,perlでワンライナーを書くのが速いようです.$ perl -ne '$i++; print unless ($i % 1000)' 某所のコードゴルフによるとこれだけ短くでき
Label propagation (ラベル伝播アルゴリズム) は半教師あり学習モデルの基本的な手法のひとつです. こいつを Pregel のオープンソース実装であるところの Apache Giraph で実装しました. ref: https://github.com/smly/java-Giraph-LabelPropagationLabel propagation algorithm は半教師あり学習モデルの基本的な手法のひとつです. 少量の vertex に class label が割り当てられた状態で, グラフ上の unlabeled な vertex に class label を割り当てることができます. 自然言語処理でよく活用されていて, どのくらい活用されているかというと, 今年の自然言語処理のトップカンファレンスである ACL のベストペーパーでも使われましたし, PF
効率的な別解とか存在する問題もあるけど演習によさそうなやつをピックアップ。そのアルゴリズムじゃないと解けないわけではないって問題も多いので注意。(ただ演習するのには都合が良いかなと)※個人的難易度をつけてみました。とても主観的な難易度付けなので気にせず解いてみてください。深さ優先探索・Balls[☆]・Sum of Integers[☆]・The Number of Island[☆]・Block[★]幅優先探索・Mysterious Worm[★]・Cheese[★]・Seven Puzzle[★☆]・Stray Twins[★★]・Deven-Eleven[★★]・Summer of Phyonkichi[★★☆]ワーシャルフロイド法(For 全点対最短路問題)・Traveling Alone: One-way Ticket of Youth[★]・A reward for a Car
Clouderaカンファレンスということで,Hadoopの生みの親Doug Cutting氏の講演会に参加しました.Cloudera カンファレンス Doug Cutting 講演会(仮) on ZusaarHadoopの名づけ元となった象のぬいぐるみもいました! 意外と細いんですね〜 The Future of Hadoop Context Data: 1.8ZB in 2011 Hadoop: Solution for Big Data HDFS and MapReduce: Hadoop Core Hive, Pig, Hbase, Mahout, and many components.. Dependency between components is big problem! Bigtop: package manager of Hadoop Apache Bigtop Big
PyConJP 2011に参加および発表してきました.場所は品川シーサイドの産業技術大学院大学です.PyCon JP 2011 Keynote by @tarek_ziade How do I define dependencies? What's setup.py role? Example setup.cfg What's installed? How to uninstall?? Different formats: distutils, easy_install, pip You should used pip! "easy_remove" can't be implemented. Database on installed project $ sudo pysetup3 install What about version scheme? Too long version na
Quoraで「自然言語処理に適したプログラミング言語はどれか?」という質問をしたところ,やっぱりPythonが一番人気のようです.What programming language is suitable for natural language processing? - Quora理由として以下が挙げられていますNLTKがあるから正規表現ライブラリ(re)が強力だからnumpyとscipyがあるから スクレイピングにBeautifulSoupやScrape.pyが使えるから Django / Pylons / TornadoのようなWebフレームワークがあるから また,機械学習のライブラリを言語別にまとめた質問もありました.こちらもJava, Python, Rが多いですね.Which programming language has the best repository of ma
はい,id:shiumachiさん主催のHadoopアンカンファレンスに参加してきました.Hadoop Unconference Tokyo #1 at EC-ONE on Zusaar自分のところではテーマとして MapReduce データマイニング 最適化あたりについて議論しました.最初MapRのことをMapReduceだと勘違いしていて恥ずかしい思いをしましたが後半があってよかったですw データマイニング 集計:平均・分散・カウントクラスタリング 教師あり学習 レコメンデーション データ アクセスログ(PV・クリック)→集計(Daily, Hourly, Monthly,..) 検索クエリログ・クロールデータ 広告・求人 出会い系のマッチング(eHarmony) センサーデータ(ケータイ,地震,電力?) スマートグリッド:各家庭に端末をつける 医療データ(レセプト) 交通(道路・電車
Hadoopを使ってTwitterやFacebook上での「影響力」を数値化しているKloutというサービスがあるそうです。大変興味深かったので翻訳してみました。元記事のCloudera社とKout社の許可を頂いて掲載しています(@shiumachiさん、ありがとうございます!) Using Hadoop to Measure Influence | Apache Hadoop for the Enterprise | Cloudera ソーシャルメディア上の影響力測定サービス「Klout」とはKlout | The Standard for InfluenceKloutのゴールは影響力の数値化の分野でのスタンダードになることだ。近年のソーシャルメディアの普及により、多くの測定可能な友達関係に関する情報が手に入るようになってきている。Facebookユーザには、平均して130人の友達がいる
というわけでHBase勉強会に参加してきました。今回が第1回目で、全6回の予定らしいです。Hbase勉強会(第一回) on ZusaarTogetter - 「# hbaseworkshop HBase勉強会(第一回)」 アプリケーション設計1 by @tatsuya6502さん 自己紹介 2009年からHBaseを評価 5年間は金融系のソフトウェアエンジニア 20年前はデザイナーとか HBaseエバンジェリスト 近況 転職しました:ジェミナイ・モバイル・テクノロジーズ HBaseドキュメントが日本語訳されました アンケート HBaseをプロダクションで使っている人は少数 試している人はちらほら HBaseの特徴 柔軟なテーブル構造 強い一貫性:古いデータが見えることがない 大規模データ向け:自動シャーディング、高可用性 数十億件を超えてからが本領発揮 2次インデックスを持たない(主キーへ
シリコンバレーカンファレンスから約1ヶ月。4月に入って地震による自粛ムードも薄れてきたのか、参加者のブログが一定数たまってきたようなのでまとめてみます。シリコンバレーカンファレンス 2011 感想 - ikeyasukiの日記シリコンバレーからのお便り: JTPA カンファレンス 2011:Overview シリコンバレー企業と人材 〜IDEO、Google、Apple、Facebook、Twitter等を訪問して〜 - ほぼ週刊 MBA留学ノート と シリコンバレー企業に見る企業の成長ステージ 〜TwitterからFacebook、そしてGoogleへ - ほぼ週刊 MBA留学ノートSVC2011いってくるぜ - ユメモヤ7SVC2011 シリコンバレーから その1 - hat-tunの日記 から SVC2011 シリコンバレーから その11 - hat-tunの日記までLike a S
Facebookの新しいリアルタイム解析のシステムでは、HBaseで1日200億件のイベントを処理しているそうです。以下の記事の翻訳です。High Scalability - High Scalability - Facebook’s New Realtime Analytics System: HBase to Process 20 Billion Events Per DayFacebookがまたやってくれた。彼らは巨大なリアルタイムデータのストリームを処理するもう1つのシステムを構築したのだ。以前にもFacebookはリアルタイムなメッセージシステムをHBaseで構築している(http://highscalability.com/blog/2010/11/16/facebooks-new-real-time-messaging-system-hbase-to-store-135.ht
決定木を使って辞書なしで単語を抽出する手法に関する論文を読みました。Automatic Corpus-Based Thai Word Extraction with the C4.5 Learning Algorithm はじめに日本語と同じく、単語の分かち書きがされない言語にタイ語があります。従来は人手による辞書の整備が行われていましたが、網羅性に限界があるのとコストがかかるので自動化したいというニーズがあります。 アプローチ日本語の形態素解析では系列ラベリングとして定式化されることが多いですが、この論文ではコーパス中の全部分文字列を考え、ある部分文字列が単語か非単語かを二値分類するというアプローチをとっています。このことは、前後の文脈によって単語区切りが異なることがないという前提が置かれていることになります。実際に使うときは抽出した単語を辞書として最長一致するのかな。 決定木単語と非単
というわけでHadoop Conference Japanに参加しました。Hadoop Conference Japan 2011会場は豊洲のNTTデータ本社で、初めて来たのですが駅前の広場が楽天のある品川シーサイドと全く同じでびっくりしました。 『Hadoop on クラウド / Amazon Elastic MapReduceの真価』(Amazon Web Services, Jeff Barr) Introduction AWS: 2002-Twitter: @jeffbarr What is Big Data Doesn't refer just to volume Big Data Tool EMR Overview Hadoop Hosting Framework Launch and monitor job flows: Web, CUI, REST Upload data
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く