タグ

2014年8月24日のブックマーク (11件)

  • ねこと画像処理 part 3 – Deep Learningで猫の品種識別 – Rest Term

    ねこと画像処理。 (みかん – 吉祥寺 きゃりこ) 前回の ねこと画像処理 part 2 – 検出 では画像内のの顔を検出する方法を紹介しましたが、今回はディープラーニングの技術を用いての品種を識別したいと思います。 学習データ ねこと画像処理 part 1 – 素材集めでは、自分で撮影した写真を学習データとして使うと書いたのですが、都内のカフェ等で出会えるに限ってしまうと品種の偏りが大きくなってしまうので、ここではしぶしぶ研究用のデータセットを使うことにします。。ただ、Shiba Inuがあるのに日が誇るMike Nekoが含まれていないのでデータセットとしての品質は悪いと思います。 The Oxford-IIIT-Pet dataset オックスフォード大学が公開している動物画像のデータセットです。その内画像は2400枚、クラス数は12で1クラスにつき200枚あります。今

    ねこと画像処理 part 3 – Deep Learningで猫の品種識別 – Rest Term
    sucrose
    sucrose 2014/08/24
  • 線形代数の用語と意味まとめ(主に自分用) - About connecting the dots.

    恥ずかしながら,線形代数周りの用語って似たようなものが多くて,すぐにアレがどれだっけと混同してしまいがちになります.線形代数の手計算とかがんばってたのなってもう10年とか昔の話だし,チートシート的にまとめなおしておこうと思いました.内容的には,主に統計や機械学習で使うような内容が中心になっています. 概要 統計・機械学習で使う線形代数は,基的には以下「計算の簡便化」と「データ変換」の2つがメインです.もちろん数学的に突っ込んでいったり,統計・機械学習でも応用的な手法を用いる場合はその限りではないですが,基的には下の2つが大きいと思います*1. 計算の簡便化 (例えば固有値・固有ベクトルを用いて)行列を対角化することで,行列の乗算を高速に実施する (LU分解を用いて)扱いやすい形に行列を分解することで,その後の計算を高速にする データ変換 SVDを行うことでLSIやPCAといったデータ縮

    sucrose
    sucrose 2014/08/24
  • cockpit for pixiv を公開しました - 8th713 Log

    pixivViewer の後継となる UserScript 「cockpit for pixiv」 を公開しました。 Google Chrome の野良拡張締め出しで阿鼻叫喚になっていた人がたくさんいらしたみたいなので「じゃあ UserScript で作ればいっか」っていうノリで作りました。 cockpit for pixiv は Tampermonkey 上で動作する UserScript として作られていますので Tampermonkey を導入すればワンクリックでインストール、オートアップデートにも対応です。また pixivViewer では対応していなかった「うごイラ」や「コメントの絵文字」にも対応しています。使用感は pixivViewer 2.x に合わせていますので乗り換えても違和感なく使えると思います。 今後 pixivViewer の更新は行わないので無理やり pixiv

    cockpit for pixiv を公開しました - 8th713 Log
    sucrose
    sucrose 2014/08/24
    “pixivViewer の後継となる UserScript 「cockpit for pixiv」 を公開しました”
  • 人生を切り売りするってのは周囲の人を切り売りしていることに等しい - novtanの日常

    他人の人生を覗くことは面白い。自分の経験できないことを経験していたり、自分では考えつかないことを考えていたり。かつては偉人であるとか、特別に露出のある人(主に芸能人・犯罪者)の人生を覗き見することしか出来なかったけれども、ウェブによって普通の人達の普通の人生が見えるようになっちゃった。 人生がコンテンツであるなら、それを切り売りして人気を求める人も出てくるよねやっぱり。 というわけで、観客として生暖かく見守っていることが多いんだけど。 でもなんか知らないけどそういう人たちって、某師をはじめとして感じることだけど、自分に近しい人が自分に近しい人と思われることに無頓着なんだよな。変な言い回しになっちゃったけど。 あんまりこういう界隈にいる人達に会いたくないなって思うのはそういうところもあって、会うとなんだか「隣人」になってしまう気がするんだよね。オフレコ感がないというか。 例えば所属が割れてい

    人生を切り売りするってのは周囲の人を切り売りしていることに等しい - novtanの日常
    sucrose
    sucrose 2014/08/24
  • DEEP LEARNING An MIT Press book in preparation

    sucrose
    sucrose 2014/08/24
    “DEEP LEARNING An MIT Press book in preparation Yoshua Bengio, Ian Goodfellow and Aaron Courville”
  • http://kwatch.houkagoteatime.net/blog/2014/08/24/python-pitfalls/

    sucrose
    sucrose 2014/08/24
    常識かもだけど、unicodeの文字列を+していくとすごく遅くて、リストで持って最後にjoinした方が速いってのに前にはまった(バージョンによる
  • 新しいRuby向けプロットライブラリNyaplot - ほげほげにゃ

    はじめに Google Summer of Code 2014にSciRubyの学生として参加していました。 3か月の期間が無事終了し、ちゃんとした成果物ができたので記事にします。 Nyaplotについて、コードや詳しい使い方はこちらをご覧ください: domitry/nyaplot · GitHub domitry/Nyaplotjs · GitHub あーなんか余裕なかったなあとかGSoCの感想みたいなのはまた落ち着いてから書こうかと思います。 概要 IRuby notebook上で動作する、plotのためのgem。 すごいところ インタラクティブな/インタラクティブにplotができる。 IRuby notebook上で対話的にプロットを作ることができます。また標準で用意される様々なモジュールがユーザーの対話的な操作を支援します。 作ったプロットはSVGやWebGLを使いブラウザ上に表示

    sucrose
    sucrose 2014/08/24
  • 非負値行列因子分解(NMF)によるレコメンドのちょっとした例 - About connecting the dots.

    最近線形代数についていろいろ読みなおしたりしてるのですが(線形代数チートシートを前の記事でまとめてあります),その一環でレコメンドアルゴリズムについていくつか試してみたので,それを解説します.順序としては,基の協調フィルタリング(ユーザベースド,アイテムベースド)→特異値分解(SVD)→非負値行列因子分解(NMF)になります. 基的な考え方 ここで取り扱うのは,すべて以下のようなユーザ×商品のマトリックスをベースとしたレコメンドになります*1.ここでは映画レンタルサービスを例にして考えます.6人のユーザが,4つの映画*2のうちレンタル視聴したものについては,1-5点の5段階評価を行いました.0になっているものは「みていない」ということになります. まずはざっと評価の状況をみると,「千と千尋の神隠し」が最もよく視聴されていて,6人中4人がみています.次にみられているのは「となりのトトロ」

    sucrose
    sucrose 2014/08/24
  • www\.google\.com に存在する文字エンコード切り替えによるSelf-XSS - A602

    First published Sat Aug 23 23:57:12 2014 +0900 ; substantive revision Sat Feb 14 12:41:39 2015 +0900 Tags : Security XSS まとめ 密かに細工されたページやGoogleの検索結果画面で、文字化けを直すためにエンコーディングを切り替えるとログインしているGoogleアカウントから情報が漏れる脆弱性がある。 Googleセキュリティチームは、ユーザーは手動でエンコーディングを切り替えるべきではないと考えているので、この脆弱性は修正されない。 概要 以下のページでエンコーディングをShift_JISに切り替えると www\.google\.co\..* 上でXSSが発動します。 PoC 1: Googleマップのiframe埋め込み http://www.tsg.ne.jp/n

    sucrose
    sucrose 2014/08/24
  • CNNで各層にzero paddingを入れる意味 - デー

    いろいろなCNNの実装を見ていると、畳み込み層の前にzero padding(Torch7だとSpatialZeroPadding)を入れているものが多くて、自分も使っているのですが、これにどんな意味があるのが正直良く分かっていないので、詳しい文献などあれば紹介してください。以上。 自分で使っていてこれで終わるのもアレなので自分の理解。 悪い点: 入力にzero padding入れると変なデータを学習してしまうのではないか? いろいろな実装参考にしたのと、自分で試した感じだと、畳み込みカーネルサイズの半分以下のpaddingは特に悪い影響はないようです。 逆に、端っこにしか出てこないパターンを識別しやすくなるのでは?とか。 良い点: 畳み込み演算の回数が増えるのでパラメーターの更新が多く実行される weight sharingしているカーネルのパラメーターは入力画像に対する畳み込み演算の回

    CNNで各層にzero paddingを入れる意味 - デー
    sucrose
    sucrose 2014/08/24
  • Torch7で複雑なモデルを書くときに便利な技 - デー

    Torch7はnnに用意されている部品を組み合わせることで複雑なモデルを作れて便利なのですが、複雑なモデルは入力ベクトル(orテンソル)を様々形に変換しながら実行するので、どの時点でどのサイズになっているか分からなくて書くのが難しいというのがあります。 たとえば、伝統的なCNNは、Torch7で以下のように書くのですが require 'nn' function cnn_model() local model = nn.Sequential() -- convolution layers model:add(nn.SpatialConvolutionMM(3, 128, 5, 5, 1, 1)) model:add(nn.ReLU()) model:add(nn.SpatialMaxPooling(2, 2, 2, 2)) model:add(nn.SpatialConvolutionMM

    Torch7で複雑なモデルを書くときに便利な技 - デー
    sucrose
    sucrose 2014/08/24