タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

somに関するtokuryooのブックマーク (8)

  • 自己組織化特徴マップ(SOM)

    トップページ→研究分野と周辺→ニューラルネットワーク→ 自己組織化特徴マップ(SOM)は、ヘルシンキ大学のコホーネン教授により1981年頃に発表された。教師なし学習を行なうニューラルネットワークの代表例と言える。 様々な入力データを、それらの類似度に応じて自動的に分類するクラスタリング能力に優れる。 何種類かのデータを適当に繰返し入力し続けると、いつの間にか、似たようなデータを近くに配置していく。 入力層と出力(競合)層 基的には図のような2層構造で、入力層の細胞は全ての出力層の細胞と、出力層の細胞は全ての入力層の細胞と結合し、結合係数W1_1、W1_2・・・W3_9を持つ。結合係数は最初はランダムに与えられる(ここでは仮に0~1の間の乱数とする)。 図では入力層が3、出力層が9の細胞数だが、其々いくつでもよい。出力層の細胞は多くしておく。 勝ちニューロン(細胞)の決定 或る入力データが

  • 自己組織化マップの概要 - Miyazawa’s Pukiwiki 公開版

    自己組織化マップ(Self-Organizing Maps, SOM)とは † 統計学的説明 : 多くのパラメータを使うことで近似的にノンパラメトリックで非線形なPCA(主成分分析)を実現する手法*1 PCAとは … 多次元のデータを、できるだけ情報量を落とすことなく、低次元に要約する。 例 : [数学の点, 国語の点, 理科の点, 社会の点] → [数学+理科の点, 国語+社会の点]*2 非線形PCAとは … 非線形関数であっても推定可能、SOM や カーネル主成分分析 など。 例 : 三角関数(データが原点を中心にした円弧上に存在する場合、x,yは偏角θの1次元で表現できる)*3 生理学的説明 : 大脳感覚野の特徴地図が知覚経験によって形成されていく様子を説明したモデル(の、簡易版)*4 網膜細胞の入力から、一次視覚野の方位選択性+眼優位性構造 を再現することができる。 応用的説明 :

  • Rと自己組織化マップ

    自己組織化マップ(SOM: Self-Organizing Map)は、コホネン(T. Kohonen)[1]により提案された教師なしのニューラルネットワークアルゴリズムで、高次元データを2次元平面上へ非線形写像するデータ解析方法である。 自己組織化マップは、入力層と出力層により構成された2層のニューラルネットワークである。出力層は競合層とも呼ばれている。 今、入力層には分析対象となる個体jの特徴ベクトルをxj(xj1,xj2,…,xjn)、出力層には 個のユニットがあるとする。図1の(a)で示すように、出力層における任意の1つのユニットは、入力層における特徴ベクトルのすべての変数とリンクしている。初期段階では乱数により各変数との間に図1の(b)に示すように重みmi(mi1,mi2,…,min)が付けられている。

  • 自己組織化マップとは

    まずどんなものか? ~多次元データ空間を地図帳風に「見える化」する 自己組織化マップ(SOM: Self-Organizing Maps)の理論的な説明はさておき、ここではわかりやすいたとえ話からしましょう。(以下はアルゴリズムの説明ではありません。) ある会社の顧客1000人にサッカーボール場に集まって貰ったと考えてください。そして、顧客について考察するための属性を定義します。たとえば、年齢、性別、結婚の有無、年収、・・・といった具合です。これらの属性すべてを使って顧客同士を比較します。すべての顧客を比較して、すべての人が自分に一番似ている人の隣に位置するように場所替えをしていきます。 そうやって、きれいに全員の顧客が並んだところで、ヘリコプターに乗ってサッカーボール場の上空に行きます。そして、顧客たちに呼びかけるのです。「あなたの年齢はおいくつですか?」顧客たちは自分の年齢に応じて色の

  • Somの分かり易い解説

    5. 自己紹介  で~ご  岐阜高専D科 OB  高専カンファは3回目(発表は2回目)  Twitter : dego_96

    Somの分かり易い解説
  • MATLAB Note/Neural Network Toolbox/SOM(自己組織化マップ) - Miyazawa’s Pukiwiki 公開版

    自己組織化マップ(Self-Organizing Maps, SOM) † リファレンス 競合学習ネットワーク 自己組織化マップ デモンストレーション サブプロパティ net.layers のリファレンス(トポロジー関数、距離関数) トポロジー関数、距離関数のカスタマイズ ↑ 学習に使用するデータ † 入力として使うのは、おなじみのあれ*1です。 あれ → 横軸の特徴量の数は、入力層の要素(ノード)数に対応します。 縦軸の1行が、逐次型(適応)学習の1回のステップで与えられる入力ベクトルに対応します。 また、この13×16の入力ベクトルセットが、バッチ型(訓練)学習の1回のエポックで与えられる入力ベクトルに対応します。 ↑ 基SOM(単層) † まずは、Neural Network Toolbox での基SOMの実装についてまとめておきます。 ここで作成するSOMは、5×4の二次元

  • 【勉強会】自己組織化マップ(SOM)

    This document discusses anomaly detection using one-class neural networks (OC-NN). It begins by introducing one-class support vector machines (OC-SVM) which learn a decision boundary to distinguish normal data points from anomalies using only normal data for training. The document then presents OC-NN as an alternative, where a neural network is trained to learn a low-dimensional representation of

    【勉強会】自己組織化マップ(SOM)
  • 子供でもわかる「自己組織化マップ」

    この内容は拙著『単純な脳、複雑な「私」』の巻末に「付論」として掲載されたもので、 脳科学講義として高校生たちに説明したときの録音テープから起こした文章です。 (朝日出版社の許可を得てここに掲載しております) さて、おまけの講義では、時間に余裕がある人だけに、追加の話をしたい。 ニューロンのネットワークのシミュレーションの話だ。 ここに縦10×横10の全100個のマスがあるね。マスの1個1個がニューロンだと思ってね。まず、それぞれのマスにランダムに色を割り当てておく。 色というのは3原色だよね。赤(R)、緑(G)、青(B)。だから、色は(r, g, b)のベクトルだと思ってもらっていい。(r, g, b)のすべての数値がどれもゼロだったら「黒」、これが全部100%だったら「白」。(100、100、0)だったら「黄色」だ。モニターの画面はこの原理で色がつけられている。 そんな具合に、(r, g

  • 1