教科書的なSOMをデータマイニングに使用した場合の問題点は、次のようなことです。 - データの学習順序によって結果が変わる(再現性が乏しい)。 - ノードの初期値によって結果が変わる(再現性が乏しい)。 - 学習率係数や近傍半径などのパラメータの調整がとても難しい。 - 最大値・最小値の偶然的な値によって結果が影響を受けすぎる。 - 漠然とした画像のマップが得られるだけで厳密な分析にならない。 これでは、まともな結果が得られるはずがありません。データマイニングには、統計解析と完全に統合された改良型のSOM技術を使用しなけらばなりません。 成長バッチSOM ヘルシンキ工科大学のKohonen教授によって最初のSOMアルゴリズム(逐次型SOM)が発表されたのが1982年であり、統計的応用(データマイニング)に適用するためのバッチ型SOMが発表されたのが1992年でした。その研究成果を受けて、1
前回からの続き。 データマイニング入門posted with amazlet at 09.01.26豊田 秀樹 東京図書 売り上げランキング: 5094 おすすめ度の平均: ベイジアンネットが良い Amazon.co.jp で詳細を見る 今日は自己組織化マップについてまとめる。 自己組織化マップ ■概要 以下Wikipediaから引用。 大脳皮質の視覚野をモデル化したニューラルネットの一種である。 教師なし学習によるクラスタリングの手法の一つである。 次元削減による可視化の手法の一つである。 人工ニューロンを格子状に配置し、(入力層からの)シナプス結合の重みを学習すべき入力ベクトルの集合(トレーニングセット)と適合するように変化させる。 ■実務では 以下本より抜粋。P113 - マーケティング分野ではポジショニングという考え方がある。ポジショニングとは、興味の対象となるブランドが競合ブラン
★いまさら、人工知能についてメモってみる ☆教師のいらない学習 そもそも教師がいないじゃん 自然な学習を考えてみる。目の前にりんごがある。 それが食べ物かどうかは誰も知らない環境では当然だが、誰も教えてはくれない。 それが、食べ物かどうかを知るためには、食べてみた結果を学習しなければならない。 人工知能でも、同じように、すべての事柄を人間が教えていたのでは手間がかかってしょうがない。 ある程度のことは、自分で覚えて欲しいものだ。 ってわけで、いままで教師が常に正解を教えているモデルをメモっていたが、ここでは教師がいなくてもどうにかなるモデルを勉強してみる。 こういうモデルを教師なしモデル、あるいは教師なし学習というらしい。 自己組織化マップ 教師がいなくてもどうにかなるモデルっていうのは、幾つかあるらしいが、せっかくニューラルネットワーク系統で勉強してるのだから、同じような系
動物の教師なしの学習アルゴリズムとして有名なのが、コホネンの自己組織化マップである。初期状態では、脳の知覚野はランダムに配置されていても、外界から継続的に刺激を受けるうちにうまく順応していく様子もよく説明している。このアルゴリズムは、画像解析や音声認識、データマイニングなどにも活用されているそうだ。 このアルゴリズムは簡潔である。 Mi(t+1)=Mi(t)+Hci(t)[X(t)-Mi(t)] 時刻tにおける神経細胞iの情報処理能力をMi(t)、外界からの刺激をX(t)、といずれもn次元ベクトルである。近傍関数Hci(t)=Nc(t)α(t)、でNc(t)は近傍サイズ、α(t)は学習率係数でいずれも時間が進むにつれて小さくなる。ある時刻tで外界からの刺激ベクトルXに近い神経細胞ベクトルMほど、次の時刻t+1で刺激ベクトルにより近づく、時間が進むにつれてその近傍も近づき方も小さくなって絞ら
興味があるSOMについてのまとめ 自己組織化マップ(SOM)とは、生物の脳、特に大脳皮質の様々な領野が異なる感覚様相に従って組織化されていることに着想を得て作られた人工ニューラルネットワークの一種。主に高次元のデータの視覚化のための有効なツールとして利用される。難しいことは抜きにして、SOMを直感的に理解するなら以下のページがおすすめ。 子供でもわかる「自己組織化マップ」 「自己組織化マップ」デモ付き SOMはデータマイニングによく利用される。ただし、SOMは本来データマイニング用に開発されたわけではない。基本的なSOMはその学習速度・精度がパラメータの設定や学習順序、そして初期状態に左右される。このため、データマイニングにおいては基本的なSOMを改良したものが用いられるべきだ。その例がバッチ型SOM。この辺の詳しいことは以下のページがおすすめ。 「データマイニング用SOM」マインドウエア
自己組織化マップを簡単に勉強してみたので, ついでにMATLABでプログラムを書いてみた. アルゴリズムはwikipediaとかを参考に書いてみた. RGBのデータを適当に用意して,そのデータに対してSOMを試してみた. 以下,ソースと実行結果. ソース % setting sample data clear; nData = 1000; data_x = 0.6*rand(nData, 3)+ 0.4; % setting node width = 10; height = 10; nNode = height * width; node_x = rand(nNode, 3); % % loop nLoop = 100; for iLoop = 1:nLoop sigma = exp(-0.01*iLoop); alpha = sigma; for iData = 1:nData dis
人間の直感に近い柔軟な情報処理 SOMのコンセプトをもっとも簡単に言えば、それは代表的な人工ニューラルネットワークの1つであり、我々の脳機能が誰かにプログラムされるわけではなくて、自分自身で賢くなれるということの本質的原理を数理モデルにしたものです。 というと、なにやらとてつもなく複雑な仕掛けであるかのような印象を与えそうですが、もちろんSOMが脳全体と同じだというわけがなく、脳機能のほんの一部をさらに簡略化したものに過ぎません。SOMの基本的原理はじつはとても簡単なことなのです。 まず、ある物事について、「それが何であるか?」を認識することを考えてください。リンゴを認識するときに、実在する個物としてのリンゴには、いつでも「リンゴ」という名札がついているわけではありません。我々は、その物体の色や形、香りなどの特性を五感(視覚・聴覚・臭覚・味覚・触覚)からキャッチして、その情報をもとに「それ
自己組織化マップ(Self-Organizing Maps, SOM)とは † 統計学的説明 : 多くのパラメータを使うことで近似的にノンパラメトリックで非線形なPCA(主成分分析)を実現する手法*1 PCAとは … 多次元のデータを、できるだけ情報量を落とすことなく、低次元に要約する。 例 : [数学の点, 国語の点, 理科の点, 社会の点] → [数学+理科の点, 国語+社会の点]*2 非線形PCAとは … 非線形関数であっても推定可能、SOM や カーネル主成分分析 など。 例 : 三角関数(データが原点を中心にした円弧上に存在する場合、x,yは偏角θの1次元で表現できる)*3 生理学的説明 : 大脳感覚野の特徴地図が知覚経験によって形成されていく様子を説明したモデル(の、簡易版)*4 網膜細胞の入力から、一次視覚野の方位選択性+眼優位性構造 を再現することができる。 応用的説明 :
この内容は拙著『単純な脳、複雑な「私」』の巻末に「付論」として掲載されたもので、 脳科学講義として高校生たちに説明したときの録音テープから起こした文章です。 (朝日出版社の許可を得てここに掲載しております) さて、おまけの講義では、時間に余裕がある人だけに、追加の話をしたい。 ニューロンのネットワークのシミュレーションの話だ。 ここに縦10×横10の全100個のマスがあるね。マスの1個1個がニューロンだと思ってね。まず、それぞれのマスにランダムに色を割り当てておく。 色というのは3原色だよね。赤(R)、緑(G)、青(B)。だから、色は(r, g, b)のベクトルだと思ってもらっていい。(r, g, b)のすべての数値がどれもゼロだったら「黒」、これが全部100%だったら「白」。(100、100、0)だったら「黄色」だ。モニターの画面はこの原理で色がつけられている。 そんな具合に、(r, g
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く