タグ

2014年7月14日のブックマーク (7件)

  • http://www.terrapub.co.jp/journals/jjssj/pdf/4101/41010051.pdf

  • RFM分析

    RFM分析(1) RFM分析というと難しそうに感じますが、どのようにビジネスに生かせるかについて、今回は出来るだけ分かりやすく説明してみたいと思います。 この分析方法は、「良い顧客を見分ける」ための手法の一つで、最もシンプルで分かりやすい分析方法だといっても過言ではないでしょう。 簡単に説明すると、RFM分析は、誰が一番最近買い物に来た顧客か、頻繁に来店する顧客は誰か、一番お金を使ってくれている顧客は誰か、という3つの側面から顧客を分析する手法です。 一般的には、それぞれの項目を5段階評価し、RFMのそれぞれの項目で最も高いランクの555の顧客が最も良い顧客だと考えるのです。 反対に111の顧客は、顧客といえるかどうかも含めて考える必要があります。 たとえば、ダイレクトメールを今後購買見込みのない111の顧客に送り続けることは経費の無駄遣いであることは誰が考えても分かることですが、分析をせ

  • ペアプログラミングして気がついた新人プログラマの成長を阻害する悪習

    最近、あまりプログラミングが得意でない人のサポートをする形で、長い時間にわたってペアプログラミングを行っている。そのなかで、気がついた悪い習慣と成長するための良い習慣というものをまとめてみる。 この記事のバックグラウンドとなる体系的知識がになりました。 エンジニアリング組織論への招待 ~不確実性に向き合う思考と組織のリファクタリング あわせて読みたい 経営者マインドが足りない!vs. 現場に任せてくれない!の対立をなくすカードゲームをつくった話 新人プログラマに知ってもらいたいメソッドを読みやすく維持するいくつかの原則 新人プログラマに知っておいてもらいたい人類がオブジェクト指向を手に入れるまでの軌跡 ペアプログラミングして気がついた新人プログラマの成長を阻害する悪習 あきらめるにはまだ早い!ソースコードの品質向上に効果的なアプローチ 心理的安全性ガイドライン(あるいは権威勾配に関する一

    ペアプログラミングして気がついた新人プログラマの成長を阻害する悪習
  • ロードバランス + マルチプロセス化で Fluentd のログ収集を効率化する – I'm Sei.

    〜 大晦日に秒間 1 万ユーザを捌くためにやったこと (ログ収集編) 〜今回は、大晦日のイベント用に EC2 インスタンスを複数台立ち上げておいて、年が明けたタイミングで全て Terminate してしまう予定でした。 ただ、Terminate した際に、そのままログも一緒に消えてしまうと何かあったときに困るので、Nginx のログやアプリケーションのログの収集に Fluentd を使い、とりあえず S3 にぶっ込んでおくことにしました。 Fluend は標準では 1 つの CPU コアしか使ってくれないので、複数の CPU コアをもっているサーバで動かす際は、マルチプロセス化することで CPU を効率的に使えるようになります。 具体的には、ログ集約用のサーバは in_multiprocess プラグインで複数のポートから受信できるようにしつつ、送信側は out_forward プラグイン

    ロードバランス + マルチプロセス化で Fluentd のログ収集を効率化する – I'm Sei.
  • ログ集計/時系列DB/可視化ツールの調査結果 - Qiita

    近年、自分の中で集計/可視化は Fluentd(datacounter)+Growthforecast で定番化していました。 しかしプロダクトで新たに集計/可視化の要件が出てきたことと、 最近可視化ツール周りで 「Kibanaってなんじゃ?」「Graphiteってなんじゃ?」「InfluxDBってなんじゃ?」 など、このツール達は一体何なんだろう…?というのが前々から気になっていました。 今回良い機会なので ◯◯は何をするものなのか? というのを一つ一つ調べてみました。 いわゆる「触ってみた系」の記事なので だいぶ浅い感じです。 大分類 大きく分けると、可視化ツールは以下の3つに分けられそうです。 ログ収集/集計 時系列DB(+API)の担当。バックエンド側。 可視化部分の担当。 今回は バックエンド と 可視化部分 に焦点を当ててみます。 バックエンド 全文検索時エンジン+Restfu

    ログ集計/時系列DB/可視化ツールの調査結果 - Qiita
  • 私のpeco活用事例 - k0kubun's blog

    pecoというインタラクティブに入力をフィルタして出力するコマンドがあって、使い始めてからシェルの操作方法が大幅にかわり、だいぶライフチェンジングだった。 最近このへんが流行ってるのでやたら記事あるけど、せっかくなので僕も使い道を紹介しようと思う。 pecoをzshで使う 1. peco ghq ghqを使ったローカルリポジトリの統一的・効率的な管理についてのこと。 僕も$GOPATHは$HOMEにしていて、今のところ別に困ることはない。 go getしたりghq getしたりして美しくディレクトリ切った上で、pecoに割り当てておいたC-sですぐ目的のディレクトリ開けるようにしてあるので、めちゃくちゃソース管理が楽になった。 function peco-src() { local selected_dir=$(ghq list | peco --query "$LBUFFER") if

    私のpeco活用事例 - k0kubun's blog
  • Big Sky :: peco で migemo が使える様になった。

    peco に custom-matcher という仕組みを入れて頂きました。 User CustomMatcher by mattn - Pull Request #65 - lestrrat/peco - GitHub https://github.com/lestrrat/peco/pull/65 ~/.config/peco/config.json に以下の様に CustomMatcher を追加します。 { "CustomMatcher": { "C/Migemo": [ "c:/dev/peco-cmigemo/peco-cmigemo.exe", "$QUERY" ] } } 例は Windows ですが、unix でも動きます。配列部分は実行するコマンド引数になり、$QUERY がクエリになります。 CustomMatcher は自作する事が出来ます。標準入力から行を読み込み

    Big Sky :: peco で migemo が使える様になった。