タグ

2015年1月28日のブックマーク (5件)

  • Persistent Homology とRのphom package, その他libraryの紹介 - xiangze's sparse blog

    高次元データの大域的な性質に着目した分類、解析の手法にPersistent Homologyという方法があります。 またその手法を実装したRのパッケージ(CRAN phom package)があったので簡単に紹介いたします。その他の色々な言語で使えるライブラリについても最後に紹介いたします。 ホモロジーについて ホモロジーとはあまり厳密でない言い方をすると微小な変形によっては変わることのないものの形状を特徴づけるような量で、一般には群の形で記述されます。群の係数としては整数や複素数などの数だけでなく、関数もとり得ます。しかしデータ解析の分野においては実係数のホモロジー群のみが対象とされる場合が多いようです。 球面、あるいはトーラス(ドーナツ型の図形)の表面は2次元ですが境目を持ちません。しかしながら全体としてみるとトーラスには穴が開いていて、球面には穴がありません。この穴に相当するものの有

    Persistent Homology とRのphom package, その他libraryの紹介 - xiangze's sparse blog
    teddy-g
    teddy-g 2015/01/28
    Persistent Homologyの日本語説明。わかりやすい。
  • 次元を下げる - ryamadaのコンピュータ・数学メモ

    昨日の記事で、多様体学習に触れた 多様体学習は、非線形に次元を下げる話と言い換えることができるが、それに関連する用語を挙げよう Isomap 点間距離を局所について測り、グラフ上の最短距離を局所において定める。その上で、すべての点間のグラフ上最短距離をそのつなぎ合わせとして決める。ペアワイズな最短距離が計算で来たら、それをユークリッド空間の距離のように見立ててMDSで低次元空間に埋め込む Kernel_PCA カーネル法(座標の計算をする代わりに内積計算をして計算量を減らす仕組みを使った方法)を文字込んだPCA拡張版。分解しやすいように、実際よりも次元を高くして分解できる条件を作ってやった上で、意味の大きい軸を引き出す Nonlinear dimensionality reduction methods これらを大きくくくるとNonlinear dimensionality reducti

    次元を下げる - ryamadaのコンピュータ・数学メモ
    teddy-g
    teddy-g 2015/01/28
    多様体学習のざっくりした説明。このくらいの理解でいいと思う。
  • H2OのRパッケージ{h2o}でお手軽にDeep Learningを実践してみる(1):まずは決定境界を描く - 渋谷駅前で働くデータサイエンティストのブログ

    我らが自称ゆるふわ*1ガチ勢代表@motivic_氏がこんな記事をupしてました。 ということで、こんなに簡単にDeep LearningをR上で試せるんだったらついでに僕もやってみようと思ったのでした。ただし同じirisでやるのも芸がないので*2、そこはちょっと変えてみましたよーということで。 そうそう、Deep Learningの原理については@0kayuさんのまとめがめちゃくちゃ参考になると思うので、是非是非ご参照ください。 実装ディープラーニング 今回はまだ初歩の初歩しか触りませんが、それでもチューニングのところなどにこのスライドにも出てくるような様々な原理的側面がかかわってきます。 そもそもH2Oって何だっけ 0xdata - H2O h2o/R at master · 0xdata/h2o · GitHub 元々H2Oはin-memoryプラットフォームとしてHadoop上や最

    H2OのRパッケージ{h2o}でお手軽にDeep Learningを実践してみる(1):まずは決定境界を描く - 渋谷駅前で働くデータサイエンティストのブログ
    teddy-g
    teddy-g 2015/01/28
    0xdataのH2Oでdeep learningを実装する例。Deep Learningはやはり巨大なデータがないとうまく機能しない。
  • 男のための機械学習〜RBMでA◯女優さんの共通特徴量を得よう〜 - 新kensuke-miの日記

    いま、巷で話題(3年くらい前からだいぶ話題だけど)のDeep learningをア◯でも使えるpylearn2を使って見る。 Deep learningとは? 一言で言うと「教師なしのニューラルネットをいっぱいつなげて多層ネットワーク化したもの。」 いままでは 前処理職人の丹精を込めた特徴量作り → 分類器(SVMとか、ロジスティック回帰とか、なんでもいいので関数)の学習 だったのが、 黒魔術で特徴量作り → 分類器(SVMとか、ロジスティック回帰とか、なんでもいいので関数)の学習 にできる。 黒魔術をもうちょっと紐解く 「黒魔術」って言ってるところでやっていることは「ベストな写像関数の学習」 もう少し、言葉を厳密に表現すると、「入力/ノイズ付き出力の変換をうまく表現できる関数の学習」 この関数はできるだけ良い[1]条件で別の空間に写像する。 なので、この関数が学習できると、特徴量空間に射

    男のための機械学習〜RBMでA◯女優さんの共通特徴量を得よう〜 - 新kensuke-miの日記
    teddy-g
    teddy-g 2015/01/28
    やってることはアレだが、説明は分かりやすい。「ベストな写像関数の学習」というのがポイントですな。
  • RBMから考えるDeep Learning ~黒魔術を添えて~ - Qiita

    ずいぶん遅くなりましたが、ひとまず完成です。疑問点・翻訳ミスを始めとした指摘がありましたら、どしどしお願いします(14/12/18)。 1週間あるから大丈夫だろうとたかを括っていたら、あっという間に投稿日になってしまいました。当はPylearn2を使ってRBMを学習させようと考えていたのですが、役に立つ内容を書くには時間が足りなさすぎるので、お茶を濁します。 今回の目標 Restricted Boltzmann Machine及びDeep Belief Networkの基的な動作原理を知る "A Practical Guide to Training Redstricted Boltzmann Machine"(GE Hinton, 2012)で黒魔術(RBMの性能を引き出すコツ)を学ぶ 先日、以下のような発表をしました。今回の内容は以下のスライドの焼き直し・改良を含みます。参考にどう

    RBMから考えるDeep Learning ~黒魔術を添えて~ - Qiita
    teddy-g
    teddy-g 2015/01/28
    Deep LearningのRBMについて。AutoEncoderの方が理解しやすい気がする。