タグ

2010年5月2日のブックマーク (9件)

  • 役所がどういうところかご存じないと見受けられる

    http://japan.cnet.com/blog/sasaki/2010/04/29/entry_27039510/ 役所のIT化っていうことなんだけど。 役所の文書管理を完全に電子化されると、働く職員からするともうこれが完全に「詰ん」じゃうんだよね。 役所って、ただでさえアホみたいに文書が飛び交っている。 とうぜん法律やら通達やら定款やら規約やらいわゆる「法」で動く組織な訳だから、文書できっちり管理される。 文書で管理されるっていうのは、自分がやろうとしていること全てを言葉に表わして、 微に入り細を穿って、偏執狂なんじゃないかというくらいつまびらかに説明して、 そのやろうとしていることをこれまたアホみたいにいろんなお偉い方々からのご了解を得てから行う。 これを「決裁」と言います。 例えばUSBメモリ1個買うにも、 品名、容量、価格と言った商品情報は当然、 見積書、請書、納品書、請求書

    役所がどういうところかご存じないと見受けられる
    endor
    endor 2010/05/02
  • Emacs Lisp TIPS - ファイル更新日を自動的に書き換える

    はじめに GNU Emacs には Emacs Lisp 言語を用いた超強力なマクロ機能があります。 ここでは、私がこれまでに培ってきた便利な設定/カスタマイズ用マクロを 紹介したいと思います。 自作パッケージも含め、サンプルコードも載せていますので、 「.emacs(あるいは .emacs.el)」ファイルにコピー&ペーストして使ってください。 なお、2009年3月現在、私が使っている Emacs は次の通りです。 このページで紹介しているコードは 全て Emacs バージョン 22 を前提としています。 私の .emacs.el ファイルは ここ にあります。 Emacs 22.3 (Carbon Emacs Package; Mac OS X 10.5.6) Emacs 23.0.91 (Linux; Ubuntu 8.10) Emacs 22.1 (Linux; Rocks Clu

  • Inside Buzztter

    Yoji Shidara from Enishi Tech presents on buzztter.com, a service he created that performs real-time analysis of tweets to detect trending topics. It crawls nearly 2 million tweets per day using various Ruby technologies. Buzztter was created before Twitter's official trends and supports both English and Japanese. Shidara demonstrates the system architecture and components like the crawler, full-t

    Inside Buzztter
  • はてなブログ | 無料ブログを作成しよう

    オーベルジーヌ実レポ べ物の鼻塩塩(未だに通じるのかな) オーベルジーヌというカレーをご存知だろうか 都内にあるデリバリー専門のカレー屋で、 ロケ弁などで大人気の格欧風カレーが楽しめるらしい いいな〜 いいな〜オブザイヤー 都内の奴らはこんな良いモンってんのか 許せねえよ………

    はてなブログ | 無料ブログを作成しよう
  • Twitter分散クロールの野望

    Future Directions of Fairness-Aware Data Mining: Recommendation, Causality, a...Toshihiro Kamishima

    Twitter分散クロールの野望
  • twitter検索のクロール方法について - 不可視点

    twitter検索はpublic_timelineスクレイピングする方法でポストを収集していました。 これはうまくいっていたのですが3月のはじめにAPIによるアクセスに続いて通常ページもキャッシュされるようになり、ポストの取得がとびとびになってしまいました。影響はかなり出てしまい、回収率は1/10程度に落ち込んでしまいました。 代替策 TwitterはData mining feedという600ほどのポストを一度でもらえるAPIを提供していてポストを多く集めたい人はそれを使うようにというアナウンスをしています。しかしこれもキャッシュが効いているようですからそれほど改善しないのではないかと思い試していません。 また、既に事実上日語のみを検索対象にするサービスになっているので日語ユーザーのポストだけもらえればいいかと思い、日語ユーザー(7万人前後)をRSSで取得する方法を考えましたが、

    twitter検索のクロール方法について - 不可視点
  • サイト上のユーザー行動情報をデータマイニングに活用する

    第3回では、これまで触れてきた「ネット時代のデータマイニングへの要望」と、それを受けた「ツールの変容」という流れを受けて、新しいインプットデータ(分析対象データ)について書いてみたいと思います。 インターネットが普及することで、企業に蓄積されるデータが増えてきたと再三書いてきましたが、大きく分けて以下の3種類の要因に大別できます。 企業が生活者と直接コミュニケーションとることになったために新しくコンタクトの履歴が残るようになった(新規のコミュニケーションの発生) 従来から企業と生活者の間に接触はあったが、ネットにより手段が簡便化したことで、コミュニケーションの量が増えた(コミュニケーションをとる人間と、頻度の増加) 従来の単純な履歴(「○○を送付した」「△△に反応があった」「□□を買った」など)に加えて、サイト上でのユーザーの行動情報(「▲▲を見ていた」「■■を買おうとした」)が新規に収集

    サイト上のユーザー行動情報をデータマイニングに活用する
  • データマイニングを取り巻くツールに自動化の流れ

    連載2回目は、ネット時代の要請を受けて、データマイニングを取り巻くツール環境がどのように変化(進化)をしているかを、ご紹介させていただきます。 現在、企業内のDWH(データウェアハウス≒巨大なDB)に蓄積された膨大なデータは、例えればダムに貯められた水です。ただ水門を開け閉めするだけでは、膨大な水量(データ量)が流出してしまい、現実的に意思決定の材料としては機能しません。まさに消防ホースから水を飲むようなもので、受け手の処理能力を軽く超えてしまうのです。そこで、処理が可能な適切な量・質に情報を絞り込んで取り出す「蛇口」が必要となり、その機能がデータマイニングに求められています。 しかし、現実問題として、そのマイニング自体が非常に高度で職人的な作業であるため、属人的な制約をうけることになります。つまり、分析者の能力と人数に限界があるため、結果として処理できる件数とデータ量にもすぐに限界が来て

    データマイニングを取り巻くツールに自動化の流れ
  • org-mode で表計算とか - mooz deceives you

    Emacs で表計算を行って、その結果を HTML だとか、 Latex だとか、とにかく色々な形式にして扱うことが出来てしまうらしい。 百聞は一見にしかずということで、動画を一つ。 orgtbl というマイナーモードを使えば、こんな変態じみたことが可能になるとのこと。 YaTeX のテーブル編集支援は個人的にあまり使いやすく無かったので、これはうれしい。マイナーモードだから、おそらく共存も出来るんだろうな。 ちょっと試してみた % BEGIN RECEIVE ORGTBL ourprof % END RECEIVE ORGTBL ourprof \begin{comment} #+ORGTBL: SEND ourprof orgtbl-to-latex | | 年齢 | 身長 | 体重 | BMI | |--------+------+------+------+-----| | 俺 |