I have a lot of open source projects. Even more with Glider Labs. Some of them are fairly popular. All of them get me excited. But most of them also bum me out. I'm going to share one of the reasons I've had to take a break for the past couple months, and why all my repositories are now looking for more maintainers. Open source is hard. It seems easy, though. You just write a piece of software and
We review the two essentials of principal component analysis (“PCA”): 1) The principal components of a set of data points are the eigenvectors of the correlation matrix of these points in feature space. 2) Projecting the data onto the subspace spanned by the first $k$ of these — listed in descending eigenvalue order — provides the best possible $k$-dimensional approximation to the data, in the sen
Parsing command lines in C is easy when all of the options are single characters: You pass your command line to getopt along with a string containing all the valid options; then you have a switch statement with a case for each option you want to handle. It looks something like this: int ch; while ((ch = getopt(argc, argv, ":af:")) != -1) { switch (ch) { case 'a': aflag = 1; break; case 'f': printf
最近、テレビドラマを見ていると、ハイテク技術を活用して事件を解決するストーリーが 多いように感じられる。そこで今回は、防犯カメラの画像がどのように活用されているかを 見てみたいと思う。 防犯カメラの画像処理を活用した犯人特定 防犯カメラの画像を手がかりに犯人を割り出すといったシーンはテレビドラマでも 多く見かけるものであり、あまり珍しいものとは感じられないであろう。 しかし、防犯カメラで本人を特定する際に、顔などの本人の身体情報だけが証拠になる訳ではない。 面白い事例として、犯人の着用していたジーンズから犯人を割り出すというものがある。 お気づきの方も多いかと思うが、ジーンズの内側の縫い目の部分にはバーコード模様のような、 小さな色のかすれが存在する。 これは、ジーンズは布地が固く一度に縫うことができないためにできるもので、 実は同じ型のジーンズでも全て異なっており、まさに指紋と同じ役割を
高次元データの外れ値検出についてのメモ. 高次元データと次元の呪い 次元が大きくなるほど,点の間の距離は均一になっていく. 例として,2000個の点の各座標を一様乱数で発生させて,次元を変えながら点の間の距離の平均値,最大値,最小値,平均値±1σ,平均値±2σをみてみよう. library(ggplot2) set.seed(123) # 次元のリスト dims <- c(1:9, 10*(1:9), 100*(1:10)) # 算出する統計量 stats <- c("min", "mean-sd", "mean", "mean+sd", "max") # 発生させる点の個数 N <- 2000 # 各次元に対して算出した統計量を格納する行列 ans <- matrix(NA, length(dims), length(stats), dimnames=list(dims, stats))
比戸です。 先週Jubatusの最新0.4.0がリリースされましたが、外れ値検知機能の追加が目玉の一つとなっています(jubaanomaly)。昨年PFIへ入社して初めて手がけた仕事が公開されたということで感慨ひとしおですが、便乗してあまり語られることのない異常検知の世界について書きたいと思います。以下の資料は昨年のFIT2012で使ったものです。 異常検知とは簡単にいえば、「他に比べて変なデータを見つけ出す」タスクです。お正月にテレビで繰り返し流れた、おすぎとピーコのCM(*1)がわかりやすいイメージですね。機械学習の枠組みで言えば”教師無し学習”に属します。分類や回帰、クラスタリングなど応用も多く人気も研究熱も高いタスクに比べると、マイナーです。SVMとか、Random Forestとか、Boostingとか、最近だとDeep Neural Networkとか、有名な必殺技アルゴリズム
地味だけど重要ないぶし銀「モデル評価・指標」に関連して、Cross Validation、ハイパーパラメーターの決定、ROC曲線、AUC等についてまとめと、Pythonでの実行デモについて書きました。 本記事はQiita Machine Learning Advent Calendar 2015 7日目のものです。 ふと見てみたら12/7が空いていたので、急遽書いてみました コードの全文はこちらのGitHubリポジトリにあります。 0. データセット "Titanic" おなじみ、Titanicデータセットを使用します。客船Titanicの生存者に関するデータで、分類のデモ用データとしてよく用いられています。 まずは前処理とデータインポート seabornにデータセットがあるので、それを使います。 %matplotlib inline import numpy as np import p
世界最先端!NRF BIG SHOW 2015で語られたリテールの未来予測【前半】 WRITER : 野田 勝 近年、テクノロジーの発展を背景に、リテールは変革しつづけている。顧客は好きな時に好きな商品を購入でき、より快適にショッピングを楽しむことが出来るようになってきている。 2015年1月11日から13日までの期間、アメリカNYで、世界中のリテール企業やリテールテクノロジー企業が一同に集うNRF BIG SHOW2015が開催されていた。そのイベントの中で、トレンドの紹介に強みを持つPSFK社が、リテールの未来予測に関する講演を行った。今回はその講演で話された10の未来予測の中から、前半の5つをご紹介したい。 1:BE THERE AND EVERY WHERE 未来のリテールでは、オンラインを含め、どこでも商品をカゴに入れられるようにすることが重要となる。今の時代の顧客は、常に様々な
ブロックバスター戦略という名前を最近見かけた本誌読者の方は少なくないかもしれない。おそらく感度が高い方であろう。私も友人のツイートから興味を持って読んでみましたが、面白かったので簡単にご紹介。結構な分量で、読了に5時間かかりました。 ☆ブロックバスター戦略とは 映画やスポーツなどのエンタメ・コンテンツ産業において、圧倒的な予算をかけたほうが、結果的にその予算を補って余りある回収を見込めるほどのヒットを生み出せる確率が上がる。全てのコンテンツに均等に予算配分するのではなく、特定の勝負コンテンツかなりのリソースをつぎ込んだほうが、結果的にリターンは最大化される。 (本書を読んだ梅木の解釈) 映画だとハリウッドの大物俳優を起用したほうが、ギャラが高くても興行売上が見込めて結果的に制作費を余裕で回収できる。サッカーだとクリスティアーノ・ロナウドのようなスタープレイヤーを獲得できたほうが、タイトルに
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く