タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

自己組織化マップに関するlabgaのブックマーク (15)

  • マインドウエア -Viscovery SOMine

  • 複雑な問題へのSOMの応用

    教科書的なSOMをデータマイニングに使用した場合の問題点は、次のようなことです。 - データの学習順序によって結果が変わる(再現性が乏しい)。 - ノードの初期値によって結果が変わる(再現性が乏しい)。 - 学習率係数や近傍半径などのパラメータの調整がとても難しい。 - 最大値・最小値の偶然的な値によって結果が影響を受けすぎる。 - 漠然とした画像のマップが得られるだけで厳密な分析にならない。 これでは、まともな結果が得られるはずがありません。データマイニングには、統計解析と完全に統合された改良型のSOM技術を使用しなけらばなりません。 成長バッチSOM ヘルシンキ工科大学のKohonen教授によって最初のSOMアルゴリズム(逐次型SOM)が発表されたのが1982年であり、統計的応用(データマイニング)に適用するためのバッチ型SOMが発表されたのが1992年でした。その研究成果を受けて、1

  • Mindware --最新情報

  • [book][集合知] データマイニング入門 自己組織化マップ - shohu33's diary

    前回からの続き。 データマイニング入門posted with amazlet at 09.01.26豊田 秀樹 東京図書 売り上げランキング: 5094 おすすめ度の平均: ベイジアンネットが良い Amazon.co.jp で詳細を見る 今日は自己組織化マップについてまとめる。 自己組織化マップ ■概要 以下Wikipediaから引用。 大脳皮質の視覚野をモデル化したニューラルネットの一種である。 教師なし学習によるクラスタリングの手法の一つである。 次元削減による可視化の手法の一つである。 人工ニューロンを格子状に配置し、(入力層からの)シナプス結合の重みを学習すべき入力ベクトルの集合(トレーニングセット)と適合するように変化させる。 ■実務では 以下より抜粋。P113 - マーケティング分野ではポジショニングという考え方がある。ポジショニングとは、興味の対象となるブランドが競合ブラン

    [book][集合知] データマイニング入門 自己組織化マップ - shohu33's diary
  • 研究会 - 変分近似を見直すとSOMとGTMは一元的に理解できる

  • ニューラルネットのメモ04

     ★いまさら、人工知能についてメモってみる ☆教師のいらない学習 そもそも教師がいないじゃん 自然な学習を考えてみる。目の前にりんごがある。 それがべ物かどうかは誰も知らない環境では当然だが、誰も教えてはくれない。 それが、べ物かどうかを知るためには、べてみた結果を学習しなければならない。 人工知能でも、同じように、すべての事柄を人間が教えていたのでは手間がかかってしょうがない。 ある程度のことは、自分で覚えて欲しいものだ。 ってわけで、いままで教師が常に正解を教えているモデルをメモっていたが、ここでは教師がいなくてもどうにかなるモデルを勉強してみる。 こういうモデルを教師なしモデル、あるいは教師なし学習というらしい。 自己組織化マップ 教師がいなくてもどうにかなるモデルっていうのは、幾つかあるらしいが、せっかくニューラルネットワーク系統で勉強してるのだから、同じような系

  • Gabung Sekarang di Slot88: Situs Judi Slot Online Terpercaya & Gacor, Dapat Maxwin!

  • 『コホネンの自己組織化マップ』

    動物の教師なしの学習アルゴリズムとして有名なのが、コホネンの自己組織化マップである。初期状態では、脳の知覚野はランダムに配置されていても、外界から継続的に刺激を受けるうちにうまく順応していく様子もよく説明している。このアルゴリズムは、画像解析や音声認識、データマイニングなどにも活用されているそうだ。 このアルゴリズムは簡潔である。 Mi(t+1)=Mi(t)+Hci(t)[X(t)-Mi(t)] 時刻tにおける神経細胞iの情報処理能力をMi(t)、外界からの刺激をX(t)、といずれもn次元ベクトルである。近傍関数Hci(t)=Nc(t)α(t)、でNc(t)は近傍サイズ、α(t)は学習率係数でいずれも時間が進むにつれて小さくなる。ある時刻tで外界からの刺激ベクトルXに近い神経細胞ベクトルMほど、次の時刻t+1で刺激ベクトルにより近づく、時間が進むにつれてその近傍も近づき方も小さくなって絞ら

    『コホネンの自己組織化マップ』
  • 懺悔する猫 自己組織化マップ SOM

    興味があるSOMについてのまとめ 自己組織化マップ(SOM)とは、生物の脳、特に大脳皮質の様々な領野が異なる感覚様相に従って組織化されていることに着想を得て作られた人工ニューラルネットワークの一種。主に高次元のデータの視覚化のための有効なツールとして利用される。難しいことは抜きにして、SOMを直感的に理解するなら以下のページがおすすめ。 子供でもわかる「自己組織化マップ」 「自己組織化マップ」デモ付き SOMはデータマイニングによく利用される。ただし、SOMは来データマイニング用に開発されたわけではない。基的なSOMはその学習速度・精度がパラメータの設定や学習順序、そして初期状態に左右される。このため、データマイニングにおいては基的なSOMを改良したものが用いられるべきだ。その例がバッチ型SOM。この辺の詳しいことは以下のページがおすすめ。 「データマイニング用SOM」マインドウエア

  • はてなブログ | 無料ブログを作成しよう

    諏訪之瀬島(鹿児島県鹿児島郡十島村)2024.8 はじめに 1日目 中心部・ナベダオエリア 元浦エリア 2日目 元浦エリア・中心部 切石エリア 3日目 はじめに 前回の「フェリーとしま2乗船記」にも書きましたが、諏訪之瀬島に行ってきました。今回は、その諏訪之瀬島の記事です。 kakoyuu.hatenablog.com 諏訪之瀬島は…

    はてなブログ | 無料ブログを作成しよう
  • 自己組織化マップのコードを書いてみた - nosyan's blog

    自己組織化マップを簡単に勉強してみたので, ついでにMATLABでプログラムを書いてみた. アルゴリズムはwikipediaとかを参考に書いてみた. RGBのデータを適当に用意して,そのデータに対してSOMを試してみた. 以下,ソースと実行結果. ソース % setting sample data clear; nData = 1000; data_x = 0.6*rand(nData, 3)+ 0.4; % setting node width = 10; height = 10; nNode = height * width; node_x = rand(nNode, 3); % % loop nLoop = 100; for iLoop = 1:nLoop sigma = exp(-0.01*iLoop); alpha = sigma; for iData = 1:nData dis

    自己組織化マップのコードを書いてみた - nosyan's blog
  • 複雑な問題へのSOMの応用

    人間の直感に近い柔軟な情報処理 SOMのコンセプトをもっとも簡単に言えば、それは代表的な人工ニューラルネットワークの1つであり、我々の脳機能が誰かにプログラムされるわけではなくて、自分自身で賢くなれるということの質的原理を数理モデルにしたものです。 というと、なにやらとてつもなく複雑な仕掛けであるかのような印象を与えそうですが、もちろんSOMが脳全体と同じだというわけがなく、脳機能のほんの一部をさらに簡略化したものに過ぎません。SOMの基的原理はじつはとても簡単なことなのです。 まず、ある物事について、「それが何であるか?」を認識することを考えてください。リンゴを認識するときに、実在する個物としてのリンゴには、いつでも「リンゴ」という名札がついているわけではありません。我々は、その物体の色や形、香りなどの特性を五感(視覚・聴覚・臭覚・味覚・触覚)からキャッチして、その情報をもとに「それ

  • Sign in - Google Accounts

  • 自己組織化マップの概要 - Miyazawa’s Pukiwiki 公開版

    自己組織化マップ(Self-Organizing Maps, SOM)とは † 統計学的説明 : 多くのパラメータを使うことで近似的にノンパラメトリックで非線形なPCA(主成分分析)を実現する手法*1 PCAとは … 多次元のデータを、できるだけ情報量を落とすことなく、低次元に要約する。 例 : [数学の点, 国語の点, 理科の点, 社会の点] → [数学+理科の点, 国語+社会の点]*2 非線形PCAとは … 非線形関数であっても推定可能、SOM や カーネル主成分分析 など。 例 : 三角関数(データが原点を中心にした円弧上に存在する場合、x,yは偏角θの1次元で表現できる)*3 生理学的説明 : 大脳感覚野の特徴地図が知覚経験によって形成されていく様子を説明したモデル(の、簡易版)*4 網膜細胞の入力から、一次視覚野の方位選択性+眼優位性構造 を再現することができる。 応用的説明 :

  • 子供でもわかる「自己組織化マップ」

    この内容は拙著『単純な脳、複雑な「私」』の巻末に「付論」として掲載されたもので、 脳科学講義として高校生たちに説明したときの録音テープから起こした文章です。 (朝日出版社の許可を得てここに掲載しております) さて、おまけの講義では、時間に余裕がある人だけに、追加の話をしたい。 ニューロンのネットワークのシミュレーションの話だ。 ここに縦10×横10の全100個のマスがあるね。マスの1個1個がニューロンだと思ってね。まず、それぞれのマスにランダムに色を割り当てておく。 色というのは3原色だよね。赤(R)、緑(G)、青(B)。だから、色は(r, g, b)のベクトルだと思ってもらっていい。(r, g, b)のすべての数値がどれもゼロだったら「黒」、これが全部100%だったら「白」。(100、100、0)だったら「黄色」だ。モニターの画面はこの原理で色がつけられている。 そんな具合に、(r, g

  • 1