タグ

ベクトルに関するlabgaのブックマーク (13)

  • 関数の基底,関数の内積

    しかし,これはあくまで「予想」なので,当に三角関数が様々な関数の基底になっているのかは分かりません。 そんなわけで,またもや2次元ベクトルに頼ります。。。2次元ベクトルの exやeyは「基底」だと分かりきっているので, その性質から類推すれば何かヒントが見つかるかもしれません。 直交 基底ベクトルの ex や ey と内積を取れば,方向の成分だけが残るのでした。それでは,基底どうしの内積を取ったらどうなるのか? ということを考えてみます。 ex と ey の内積は, 図から見てとれる通り ex と ey が「直交」しているのでゼロです。cos90°= 0 だから,という感じで。 内積がゼロというのは, 「ex と ey には共通の成分が無い」という重要な意味を持っています。 なんというか,もし ex と ey で “かぶっている”成分があったら,もっとスマートな別の基底が選ばれているはず

  • 再生核ヒルベルト空間をなんとなく理解する - Neon Lights

    タイトルの通り再生核ヒルベルト空間を何となく理解する. 厳密ではないし,証明も書いていない. 僕はかなり忘れっぽいので,「わかんなくなったなー」と思ったときに見るメモ用. 問題 入力ベクトルを非線形写像によって高次元空間へ移して,その高次元空間上で別の入力ベクトルとの内積をとる. は内積. このとき,カーネルトリックというテクニックを使って,この内積を という感じで求めたい. の次元が非常に大きい場合(無限のときもある)は,内積は計算出来ないのだけど,上の式によって計算できるよ,という話. 準備 適当な入力空間上の集合: .入力ベクトルとしてとが与えられているとすると. 適当な正定値カーネル: .との関係は,となる(ようにしておく). ここで,は,の関数とみなせるので,は,を関数空間(上の高次元空間つまり無限次元空間になる)に写像するものと考えることができる(パラメータによって関数が設計さ

  • ベクトルと関数のおはなし

    特定非営利活動法人natural science は、知的好奇心がもたらす心豊かな社会の創造にむけて、 現代社会では実感する機会の少ない科学や技術のプロセスを可視化・共有化する場づくりを通じて、 科学を切り口とした地域づくりを目指す、若手主体の団体です。 | More ≫ はじめに ベクトルとか関数といった言葉を聞いて,何を思い出すだろうか? ベクトルは方向と大きさを持つ矢印みたいなもので,関数は値を操作して別の値にするものだ, と真っ先に思うだろう. 実はこのふたつの間にはとても深い関係がある. この「深い関係」を知れば,さらに数学と仲良くなれるかもしれない. そして,君たちの中にははすでに,その関係をそれとは知らずにただ覚えている人もいると思う. このおはなしは,君たちの中にある断片化した数学の知識をつなげるための助けになるよう書いてみた. もし,これを読んで「数学ってこんなに奥が深く

  • 高速数値計算ライブラリ「Numpy」覚書き - Pashango’s Blog

    Pythonで一番有名で普及しているライブラリと言っても過言ではない「Numpy」の覚書きです。かなり多機能な数値計算ライブラリで、内部はC言語で記述されているため超高速に動作します。 ベクトル ベクトルの長さ&正規化 import numpy a = numpy.array([[2,2]]) #ベクトルの長さ length = numpy.linalg.norm(a) #length=>2.8284271247461903 #ベクトルの正規化 a / numpy.linalg.norm(a) #=>array([[ 0.70710678, 0.70710678]]) 内積&外積 import numpy v1 = numpy.array((1,0,0)) v2 = numpy.array((0,1,0)) #内積 numpy.dot(v1,v2) #=> 0 #外積 numpy.cros

    高速数値計算ライブラリ「Numpy」覚書き - Pashango’s Blog
  • 類似度と距離 - CatTail Wiki*

    2つのデータが似ている度合いを,類似度の大きさや距離の近さといった数値にしてあらわすことで,クラスタ分析や,k-近傍法,多次元尺度構成法(MDS)をはじめとするいろいろな分析を行うことが可能となる. ここでは,よく知られている類似度や距離について述べる. 類似度という概念は,2つの集合の要素がまさにどれだけ似ているかを数量化したものであり,距離とは,要素同士の離れ具合,従って非類似度とちかい概念と考えてもよい. 参考までに数学における距離の概念の定義を示すと, 距離空間の定義 Sを1つの空でない集合とし,dをSで定義された2変数の実数値関数 d(SxS) → R が,以下の4条件(距離の公理) D1 : (非負性) 任意のx,y∈Sに対して d(x,y)≧0. D2 : (非退化性) x,y∈Sに対し d(x,y)=0  ⇔ x=y. D3 : (対称性) 任意のx,y∈Sに対して d(x

    類似度と距離 - CatTail Wiki*
  • 文系のための「擬逆行列」

    さて、前回の話の最後に、「逆行列」というをやった。 「逆行列」というのは、スカラーの「逆数」に対応し、 元の行列に、逆行列を掛けると、「単位行列」が出てくるのであった。 覚えていない人は、もう一度、逆行列の投稿を参照すること。 この投稿の最後に、「逆行列」が「正方行列」でないといけない、と言った。 ところが、この「正方行列」という制限は、色々と不便なのである。 しかし、方法が無いかと言われると、そうでもない。 近似的に「逆行列」を求める方法がある。 っと、いうことを今日は書いてみる。 では、早速、「R」を使って、この問題に挑戦してみる。 まずは、4行×3列の行列を準備する。つまり、n=4、p=3 の行列である。 「R」を立ち上げたら、次のように入力する。 A <- matrix(c(50,0.5,50,5,7,0.2,0,6,75,3,20,50), nrow=4, ncol=3) 今回は

  • ホーム — KiyuHub

  • ニューラルネットによる単語のベクトル表現の学習 〜 Twitterのデータでword2vecしてみた - 病みつきエンジニアブログ

    最近にわかにword2vecが流行っています。ので、乗っかってみました的記事です。 理論に関してはあまり詳しくしらないので、印象だけで語っているかもしれません。何かありましたらTwitterかコメント等でご指摘いただけますと幸いです。 ちなみに、失敗した話が多いです。 word2vecと単語のベクトル表現 word2vecは、機械学習の分野で使われる、ニューラルネットというモデルを使ったツール/ライブラリです*1。名前の通り、wordをvectorにします。vectorにする、というのは、ベクトル表現を獲得するということで、意味(みたいなもの)の獲得というか、素性の獲得というか。 単語のベクトル表現の獲得自体は、別にword2vecにしかないわけではありません。言い換えると、昔からあります。LDAを使って単語のトピック分布のようなものを学習したり(vingowでやりました)。余談ですが、こ

    ニューラルネットによる単語のベクトル表現の学習 〜 Twitterのデータでword2vecしてみた - 病みつきエンジニアブログ
  • word2vec内部技術の勉強 : 研究開発

    総合研究大学院大学 複合科学研究科  情報学専攻 卒 博士(情報学) 自然言語処理や機械学習データ分析に関する研究内容とwebシステムの開発と運用について書いています。 シリコンバレーベンチャーみたいに深い技術の事業化をしたいと思っています。 ご興味ある方はご連絡ください。 word2vecの勉強しないといけないと思ったので、 Efficient Estimation of Word Representations in Vector Space. Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Google Inc. In Proceedings of Workshop at ICLR, 2013. We propose two novel model architectures for computing contin

    word2vec内部技術の勉強 : 研究開発
  • 自然言語処理をなにも知らない私がword2vecを走らせるまで - 最尤日記

    googleの中の人たちが作ったword2vecというモノがあります。deep learningを自然言語(N-gram?)に適用することにより単語を100次元くらいのベクトル空間にマップする物だと思います。面白さは以下のベージの通りですが、たったこれだけの事で、ほとんど意味理解の一歩手前まで到達していると思います。 Taku Kudo : word2vec  で少し遊んでみた。いわゆる deep… 面白いのは、2つのベクトルの差が、2つの単語の関係をよく近似してくれること。 (中略) A B C → X (A → Bの関係に対し、 C → X に当てはまるXを探す) グーグル ヤフー トヨタ → 日産 渋谷 新宿 札幌 → 旭川 警察 泥棒 正義 → くそ 平和 戦争 左 → 右 社員 会社 生徒 → 小学校 空 海 天井 → 床板 生きる 死ぬ 動く → 止まる ・・・ Deep-le

    自然言語処理をなにも知らない私がword2vecを走らせるまで - 最尤日記
  • 特徴抽出チュートリアル

    海野です。 特徴抽出モジュールである、 fv_converter についてチュートリアルを書こうと思ったら、長くなってしまったので連載にします。 今日は、手始めに特徴抽出とは何かについてかいていきます。 一般的には、テキストや画像、時系列データといった生の入力データを、機械学...

  • http://homepage2.nifty.com/skimp-studio/htm/crawl/1_2_vector2.htm

    1-1.3でベクトルを具体的な数値で表す方法は分かりました。 今度は基的な演算をやってみましょう。 ベクトルAとスカラーaの乗除算は次のように定義されます。 (式1-2.1) ベクトルの成分をスカラーで掛けたり割ったりしているだけですね。 a>0の場合、aAはAと同じ方向になります。 a<0の場合、aAはAと正反対の向きになります。 ベクトルの大きさを具体的な数値で表す方法を考えて見ましょう。 もう一度(図1_1.2)を見てください。 三平方の定理(ピタゴラスの定理)から、2次元ベクトルAの大きさ|A|は (式1-2.2) で与えられることが分かります。分かれ。 各成分を実数とすれば、朗らかに明らかに|A|>=0となります。 |A|をベクトルの長さとか絶対値とかノルムとかいったりもします。 3次元は例によってサンプルプログラムです。 原点から赤い玉に向かうベ

  • 1