並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 91件

新着順 人気順

パーセプトロンの検索結果1 - 40 件 / 91件

  • ハッカーの系譜(10)マービン・ミンスキー (8) 世界初 機械学習可能なネットワーク「パーセプトロン」誕生 | THE ZERO/ONE

    ミスティーノは、仮想通貨でも遊べるオンラインカジノです。仮想通貨での入金には、Bitcoin、Ethereum、Litecoin、Bitcoin Cashなどが使用できます。また、出金も仮想通貨で行うことができます。 また、ミスティーノでは、スロットやテーブルゲーム、ライブカジノ、ポーカー、ビデオポーカー、バカラ、サイコロなど、様々なオンラインカジノゲームが楽しめます。さらに、スマートフォンやタブレットでのプレイも可能ですので、いつでもどこでもカジノゲームを楽しむことができます。 実際にミスティーノで遊んでみた感想 ミスティーノでは、新規登録や入金などに応じて、さまざまなボーナスが提供されています。 新規登録ボーナスとしては、入金不要で手に入る「フリースピン」があります。また、入金ボーナスとしては、入金額に応じた「マッチボーナス」が提供されることがあります。さらに、プレイヤーのレベルが上が

      ハッカーの系譜(10)マービン・ミンスキー (8) 世界初 機械学習可能なネットワーク「パーセプトロン」誕生 | THE ZERO/ONE
    • パーセプトロンからSVMでの画像認識まで、機械学習エントリのまとめ - きしだのHatena

      なんかJJUGナイトセミナーで機械学習をやるっぽくて、定員100人が40人キャンセル待ちとかになってますね。 【東京】JJUG ナイト・セミナー「機械学習・自然言語処理特集!」12/17(水)開催 - 日本Javaユーザーグループ | Doorkeeper ということで、予習用だか復習(になるかわかんないけど)用に、2008年になんか機械学習をやってたときのエントリをまとめてみます。 今でこそ機械学習はなんかもりあがってるけど、2008年にぼくがやってたとき「ところで機械学習やってなんになるの?」ってよく言われてました。ぼくも「いや、なんかそこに機械学習ってものがあるから実装してる」みたいな答えをしてた気がします。特に目的はありませんでした。 たまたま サポートベクターマシン入門 という本を見かけて、なんか実装してみたくなっただけです。 変な力がありあまってたっぽい。 機械学習ことはじめ

        パーセプトロンからSVMでの画像認識まで、機械学習エントリのまとめ - きしだのHatena
      • テキストマイニングのための機械学習超入門 二夜目 パーセプトロン - あんちべ!

        一夜目はパターン認識と機械学習の概要を学びました。今夜は、識別部で用いられる機械学習の基本的な線形識別器である「パーセプトロン」を具体的に学びたいと思います。「線形識別器?パーセプトロン?何それ?」字面は厳しいですが、手を動かしてみると意外と簡単に理解できます。今夜からは数式をバリバリ使っていきますし、手を動かしていただきます。「必ず」手元にペンと紙を用意してください。そうは言ってもパーセプトロンが一体何なのか、機械学習の中でどのような位置づけなのかがわからないと混乱するかもしれません。パーセプトロンの説明へ入る前に、機械学習の3つのアプローチをご紹介します。 ●機械学習の3つのアプローチ - 識別関数、識別モデル、生成モデル 機械学習は大きく分けて識別関数、識別モデル、生成モデルという3つのアプローチがあります。 識別関数 := 入力データを見て、特定のクラスに属するよう識別(代表的な手

          テキストマイニングのための機械学習超入門 二夜目 パーセプトロン - あんちべ!
        • 多層パーセプトロンの動きを可視化する - StatsFragments

          概要 多層パーセプトロン記事の補足。下の記事の最後で、入力されたデータを隠れ層で線形分離しやすい形に変換している、ということを確かめたかったが、MNIST データでは次元が高すぎてよくわからなかった。ということで、もうちょっとわかりやすい例を考える。 可視化シリーズとしては以下の記事のつづき。 ロジスティック回帰 (勾配降下法 / 確率的勾配降下法) を可視化する - StatsFragments 多層パーセプトロンとは 詳細は上記の記事参照。この記事では、以下のような多層パーセプトロンを例とする。 入力層のユニット数が 2 隠れ層のユニット数が 3 出力層のユニット数が 2 つまり、入力層として 2 次元のデータを受けとり、隠れ層で 3 次元空間へ写像してロジスティック回帰 ( 出力は2クラス ) を行う。 サンプルデータ 2 次元で線形分離不可能なデータでないとサンプルの意味がない。こ

            多層パーセプトロンの動きを可視化する - StatsFragments
          • Chainerによる多層パーセプトロンの実装 - 人工知能に関する断創録

            これまでDeep LearningのアルゴリズムをTheanoで実装してきた(2015/4/29)けれど、ここらで巷で大人気のライブラリChainerにも手を出してみた。Theanoの勉強を始めたあとすぐにChainerが公開された(2015/6/9)がユーザや情報が増えるまで待っていた感じ(笑)最近はコードや実験結果などを公開してくれる人が増えてきたので非常に参考になっている。目についたものはてぶに登録しているので、興味を持った手法はがしがし勉強して追試していきたい。 Chainerのバージョンは1.3.2をベースにしている。1.3からPyCUDA/scikit-cudaを独自ライブラリのCuPyに置き換えたとのことで、以前のコードは少し修正しないと動かないようだ。その分、1.3からはインストールがシンプルになっていてとてもうれしい。1.1のころは、Chainerと直接関係ないPyCUD

              Chainerによる多層パーセプトロンの実装 - 人工知能に関する断創録
            • 多層パーセプトロンで手書き数字認識 - 人工知能に関する断創録

              多層パーセプトロンが収束する様子(2014/1/23)の続き。数字認識は前にニューラルネットによるパターン認識(2005/5/5)をJavaで作りましたが今回はPythonです。 今回は、多層パーセプトロンを用いて手書き数字を認識するタスクを実験します。今回からscikit-learnというPythonの機械学習ライブラリを活用しています。ただ、scikit-learnには多層パーセプトロンの正式な実装はない*1ため多層パーセプトロンのスクリプトはオリジナルです。今回から比較的大きなデータを扱うためなるべく高速に動作し、かつPRMLと変数名を合わせることで理解しやすいようにしました。 digitsデータ 手書き数字データは、MNISTというデータが有名です。PRMLの付録Aでも紹介されています。今回はいきなりMNISTではなく、scikit-learnのdigitsというより単純なデータセ

                多層パーセプトロンで手書き数字認識 - 人工知能に関する断創録
              • 高卒でもわかる機械学習 (2) 単純パーセプトロン

                単純パーセプトロン 動物の神経細胞(ニューロン)は、樹状突起という部位で他の細胞から複数の入力を受け取り、入力が一定値以上に達すると信号を出力する(これを「発火する」と言ったりします)とされており、それをモデル化したものとして形式ニューロンというものが提案され、さらに応用してパーセプトロンというモデルが発明されました。1 と、難しそうなことを書きましたが、ざっくり絵にするとこんな感じです。 絵では入力が3つになっていますが、実際にはいくつでも構いません。 前回の の問題は、このモデルにあてはめることができます。 入力ノードが 、入力途中の矢印が に対応しています。 を入力として受け取り、それぞれに を掛けた後、中心のノードですべて足し合わせます。 この値を とします。 前回のSPAMの例だと、正しく学習された後であれば、SPAMの場合 、非SPAMの場合 となるはずですね。 このようなモデ

                  高卒でもわかる機械学習 (2) 単純パーセプトロン
                • 機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei

                  機械学習には大きく分けて「識別関数」「識別モデル」「生成モデル」の3つの種類がある。このなかで識別関数は確率を使わないので初心者が入門するのに最適。 識別関数で有名なのはSVM(Support Vector Machine、サポートベクターマシン)。名前を聞いたことがある人も多いと思う。そこで早速SVMを学ぼうとすると敷居が高くて挫折しがち。 実はSVMは(大雑把に言うと)パーセプトロンという基礎的な識別関数に「マージン最大化」と「カーネル関数」という考え方を導入したもの。なので機械学習入門者は最初にパーセプトロンを学ぶのが良いと思われる。 そこで早速パーセプトロンを作ってみよう!というのが本記事の意図するところ。自分で実装できるとモチベーションが維持しやすいので、詳しく理論を学ぶ前にまずは作ってみようという考え。ちなみに実装にはperlを用いた。 参考: これからはじめる人のための機械学

                    機械学習超入門III 〜機械学習の基礎、パーセプトロンを30分で作って学ぶ〜 - EchizenBlog-Zwei
                  • ゼロから作るDeepLearning -Pythonで学ぶディープラーニングの理論と実装-を読んだメモ ~パーセプトロン編~ - Qiita

                    ゼロから作るDeepLearning -Pythonで学ぶディープラーニングの理論と実装-を読んだメモ ~パーセプトロン編~機械学習数学ディープラーニング 概要 最近のもっぱらの興味はディープラーニングです。 ディープラーニング自体の基礎から学習しようと、本記事のタイトルの本を手に取って学習を始めたのでそこで得た知識の備忘録です。 (書籍はこちら↓) ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 なお、本記事はこの本を読んで得た知識を備忘録としてまとめたものになります。 さらに、色々メモを取るには(自分の中で)新しい概念が多く、とても長い内容になってしまうのでまずは「パーセプトロン編」ということで、ニューラルネットワーク・ディープラーニングの元となっている考え方についてフォーカスを当てて記事を書いていきます。 そして当然ですが、多分に自分の理解

                      ゼロから作るDeepLearning -Pythonで学ぶディープラーニングの理論と実装-を読んだメモ ~パーセプトロン編~ - Qiita
                    • 人工知能やディープラーニングの理解に欠かせないパーセプトロンとは何か? - Qiita

                      この記事はAizu Advent Calendar 2016 8日目の記事です。 前の人は@0xShoneさん、次の人は@masapontoさんです。 パーセプトロンとは、1957年、ローゼンブラットというアメリカの研究者によって考案されたアルゴリズムのことですが、人工知能や機械学習、ディープラーニングなどのアルゴリズムの礎になっており、それらを理解する上では必須知識です。 そんなパーセプトロンを分かりやすく解説していきます。 パーセプトロンとは? パーセプトロンは、複数の入力に対して1つ出力する関数です。 出力は$1$か$0$の2値です。 それぞれの$x_1$,$x_2$は入力信号、$y$は出力信号、$w_1$,$w_2$は重みを表します。図の◯はニューロンと呼びます。 入力信号$x$に重み$w$が乗算され、その総和が一定のしきい値を超えたら$1$を出力します。それ以外は$0$を出力しま

                        人工知能やディープラーニングの理解に欠かせないパーセプトロンとは何か? - Qiita
                      • 単純パーセプトロンをPythonで組んでみる - 渋谷駅前で働くデータサイエンティストのブログ

                        いきなり自分でハードル上げてみました(笑)。ちなみに何故単純パーセプトロンを最初に持ってきたのか?というと、id:echizen_tmさんのブログ記事でも触れておられる通り 機械学習には大きく分けて「識別関数」「識別モデル」「生成モデル」の3つの種類がある。このなかで識別関数は確率を使わないので初心者が入門するのに最適。 識別関数で有名なのはSVM(Support Vector Machine、サポートベクターマシン)。名前を聞いたことがある人も多いと思う。そこで早速SVMを学ぼうとすると敷居が高くて挫折しがち。 実はSVMは(大雑把に言うと)パーセプトロンという基礎的な識別関数に「マージン最大化」と「カーネル関数」という考え方を導入したもの。なので機械学習入門者は最初にパーセプトロンを学ぶのが良いと思われる。 それゆえ、実際に僕も以前Matlabで糞コード書きながら勉強してた時はやはり単

                          単純パーセプトロンをPythonで組んでみる - 渋谷駅前で働くデータサイエンティストのブログ
                        • Theano で Deep Learning <2> : 多層パーセプトロン - StatsFragments

                          Python Theano を使って Deep Learning の理論とアルゴリズムを学ぶ会、第二回。 目次 DeepLearning 0.1 より、 第一回 MNIST データをロジスティック回帰で判別する 英 第二回 多層パーセプトロン (今回) 英 第三回 畳み込みニューラルネットワーク 英 第四回 Denoising オートエンコーダ 英 第五回 多層 Denoising オートエンコーダ 英 第六回の準備1 networkx でマルコフ確率場 / 確率伝搬法を実装する - 第六回の準備2 ホップフィールドネットワーク - 第六回 制約付きボルツマンマシン 英 Deep Belief Networks 英 Hybrid Monte-Carlo Sampling 英 Recurrent Neural Networks with Word Embeddings 英 LSTM Netw

                            Theano で Deep Learning <2> : 多層パーセプトロン - StatsFragments
                          • パーセプトロンの概観とディープラーニングへ - HELLO CYBERNETICS

                            パーセプトロンとサポートベクターマシンの考え方の違いをまとめます。 いずれも線形分離を達成するための手法ですが、線形分離ができない場合はそれぞれ違った手法で線形分離ができそうな問題へと変換していきます。実を言うと幾何的には両方とも同じ処理方法で解決をしようとしているのですが、その解決方法を見つける手段が異なっていると見ることができます。 パーセプトロンの発想 線形分離不可能な問題に対しての発展 ・補足 まとめ パーセプトロンの発想 パーセプトロンがいかにして問題を解決しようとするかは、簡潔に以下の図で表すことができます。ここでは簡単のために二次元の二値分類を行います。 プロットされたデータに対して、どの点がどちらのデータに属するのか(オレンジか青か)を教えることで、適当な分類直線(1)を少しずつ変えていき(2)、最終的に線形分離可能ならば分類直線を必ず見つけ出します(3)。 もっと高次元に

                              パーセプトロンの概観とディープラーニングへ - HELLO CYBERNETICS
                            • パーセプトロン - Wikipedia

                              パーセプトロン(英: Perceptron)は、人工ニューロンやニューラルネットワークの一種である。心理学者・計算機科学者のフランク・ローゼンブラットが1957年に考案し、1958年に論文[1]を発表した。モデルは同じく1958年に発表されたロジスティック回帰と等価である。 概要[編集] 視覚と脳の機能をモデル化したものであり、パターン認識を行う。ただし学習については自明ではなく、特に多層パーセプトロンの機械学習に関する歴史は、それがパーセプトロンの歴史だと言っても過言ではない。1960年代に爆発的なニューラルネットブームを巻き起こしたが、60年代末のミンスキーらによる、単層パーセプトロンは線形分離可能なものしか学習できないという指摘は、多層パーセプトロンの学習が当時まだよくわからなかったことから、一時研究を停滞させた。影響を受けた変種といえるニューラルネットワークも多数提案されているが、

                                パーセプトロン - Wikipedia
                              • 第17回 パーセプトロンを実装してみよう | gihyo.jp

                                少し間が空いてしまいましたが、今回は実践編。第15回で紹介したパーセプトロンを実装してみましょう。 環境はこれまでと同じくPython/numpy/matplotlibを用います。インストールなどの準備は第6回を参照してください。 パーセプトロンの復習 第15回で紹介したパーセプトロンの学習アルゴリズムをもう一度簡単に振り返っておきましょう。 2次元平面上のデータ点(xn,yn)(n=1,…,N)に正解ラベルtn∈{+1,-1}が与えられているとします。パーセプトロンは、次の予測式の結果がすべて正解になるようにパラメータa, b, cを決めるものでした。 そのようなパラメータは、次の手順で求めることができます。 データの中からランダムに1点(xn,yn)を取り出し、f(x,y)に代入すると、現在のパラメータを用いた予測値として+1または-1が得られます。それが正解tnと一致する場合は何もせ

                                  第17回 パーセプトロンを実装してみよう | gihyo.jp
                                • TokyoNLP#5で「パーセプトロンで楽しい仲間がぽぽぽぽ〜ん」を発表しました - シリコンの谷のゾンビ

                                  TokyoNLP#5に参加して「パーセプトロンで楽しい仲間がぽぽぽぽ〜ん」というタイトルで発表しました.発表資料 (検閲後) をuploadしました. なお,2種類のAveraged Perceptronというものがあるというような発表をしてしまいましたが,実は両方とも実質同じアルゴリズムでした.片方はVoted Perceptronの近似 [Carvalho+ 06] という文脈.もう一方は構造学習を行うStructured Perceptron [Collins 02]の文脈で提案されています.その部分を修正しました.@uchumikさんのコメントで気が付きました.どうもありがとうございます. TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ〜ん View more presentations from sleepy_yoshi 音声付きで用意したネタ.どうやら徹夜明けの妙な

                                    TokyoNLP#5で「パーセプトロンで楽しい仲間がぽぽぽぽ〜ん」を発表しました - シリコンの谷のゾンビ
                                  • 「目に見えるパーセプトロン」という資料を作ったので公開します · けんごのお屋敷

                                    先日、社内の勉強会でネタが募集されていたので機械学習、特にパーセプトロンについてしゃべりました。パーセプトロン自体は非常に単純なモデルで、理解も実装も比較的容易で、それゆえに様々なものの基礎になっています。近年、深層学習と呼ばれる学習を何層にも渡って行うような概念が話題になっていますが、そこに出てくるニューラルネットワークは一種の多層パーセプトロンでもあります。ここ数年での機械学習や深層学習の進歩のスピードは素晴らしいものがありますが、そんな中で基礎的な部分を押さえておくことはより大事になってくるのではないでしょうか。 社内勉強会で使ったスライドでは、簡単な機械学習の概要とパーセプトロンの仕組みを解説してみました。インターネット上に公開したので、このブログでも紹介しておきます。 補足 いくつか資料の補足をしておきたいと思います。 学習について 基本的には対象データから素性を抽出して、それを

                                      「目に見えるパーセプトロン」という資料を作ったので公開します · けんごのお屋敷
                                    • 多層パーセプトロンによる関数近似 - 人工知能に関する断創録

                                      パターン認識と機械学習(PRML)まとめ(2010/8/29)の続きです。以下、つづくかも?になってましたが、2014年はDeep Learningを勉強しよう(2014/1/4)と思っているので、関連するニューラルネットワーク関係の実験結果をもう少し追記します。 今回は、PRMLの5章ニューラルネットワークの中から図5.3にある多層パーセプトロンによる関数近似をPythonで実装してみました。 上の図にあるようにxを入れたときにsin(x)の近似値を出力するようなニューラルネットワークを学習します。もっと詳しく言うと (x, sin(x)) のたくさんの組(訓練データ)を教師データとして用いて、xを入れたときにsin(x)の近似値を出力するようにニューラルネットワークの重みを更新します。 多層パーセプトロン(Multilayer perceptron) p.228にあるようにバイアスパラ

                                        多層パーセプトロンによる関数近似 - 人工知能に関する断創録
                                      • 【T】機械式パーセプトロンでガリデブ判定【初版】/NN#1

                                        機械学習シリーズmylist/58633287YouTube版 https://youtu.be/ycY_qBANsEI特徴量1:高さ特徴量2:幅重み0(バイアス):後ろの壁の位置重み1:-1(上端から測る場合)または1(下端から測る場合)重み2:0~無限(黄ブロックの奥行きの倍率。立方体の時は1)しきい値:前の壁の前面重み0+特徴量1×重み1+特徴量2×重み2がしきい値以上の場合、デブ。それ以外はガリ。©UTJ/UCL

                                          【T】機械式パーセプトロンでガリデブ判定【初版】/NN#1
                                        • 多層パーセプトロンでMNISTの手書き数字認識 - 人工知能に関する断創録

                                          多層パーセプトロンで手書き数字認識(2014/2/1)の続き。今回は、簡易版のdigitsデータではなく、MNISTのより大規模な手書き数字データを使って学習してみます。 MNISTデータ MNISTは、28x28ピクセル、70000サンプルの数字の手書き画像データです。各ピクセルは0から255の値を取ります。まずは、digitsデータの時と同様にMNISTのデータを描画してどのようなデータなのか確認してみます。MNISTのデータは上記サイトからダウンロードしなくてもscikit-learnのfetch_mldata()関数でWebから取得できます。取得するのは初回実行時だけで二回目以降は第二引数のdata_homeに指定した場所に保存されます。 #coding: utf-8 import numpy as np import pylab from sklearn.datasets imp

                                            多層パーセプトロンでMNISTの手書き数字認識 - 人工知能に関する断創録
                                          • 5分でわかる!パーセプトロンの仕組みと実装方法(Python)

                                            パーセプトロン(perceptron)は、今(2019年)から60年以上前にアメリカの心理学者フランク・ローゼンブラッド氏によって考案されたアルゴリズム(演算する手順)です。パーセプトロンは昔からあるアルゴリズムなのですが、ディープラーニングの大元となるアルゴリズムです。そのためディープラーニングを理解する上で、このパーセプトロンの仕組みを知っておくことが欠かせません。そこで今回は、パーセプトロン(正確には「単純パーセプトロン」)の仕組みと Python(バージョン3)での実装方法を、できるだけわかりやすくまとめてみました。 パーセプトロンからディープラーニングまでの歴史1958年にパーセプトロンが発表されてから、長年のさまざまな研究の積み重ねによりディープラーニングに進化しました。 1958年 パーセプトロン1969年 パーセプトロンの性能と限界に関する論文1986年 誤差逆伝播法(パー

                                              5分でわかる!パーセプトロンの仕組みと実装方法(Python)
                                            • 『イラストで読む AI 入門』読書メモ 01 : AI ブームの歴史 (パーセプトロン, バックプロパゲーション, ディープラーニング) - Qiita

                                              AI というネーミング AI は Artificial Intelligence (人工知能) の略で、 1956 年のダートマス会議で生まれた言葉。 アメリカの認知科学者の ミンスキー がダートマス大学で 『The Dartmouth Summer Research Project on Artificial Intelligence』(人工知能に関するダートマスの夏期研究会)という名前の学会を開催した。 ここで世界で初めて「人工知能」という言葉が使われた。 ↓「人工知能の父」と呼ばれる ミンスキー 氏 (写真は ウィキペディア『マービン・ミンスキー』 より) 『人工の知能』って、すごい名前を付けましたね! 人工の知能。強そう。 本に戻ります。 この命名からは、機械に言語を扱えるようにさせる自分たちの研究により、機械がいずれ人間の知能に追い付くのだという意気込みが感じられると思います。

                                                『イラストで読む AI 入門』読書メモ 01 : AI ブームの歴史 (パーセプトロン, バックプロパゲーション, ディープラーニング) - Qiita
                                              • パーセプトロン - 人工知能に関する断創録

                                                今回は、4.1.7のパーセプトロンアルゴリズムを実装します。パーセプトロンは、2クラスの識別モデルで、識別関数は式(4.52)です。 パーセプトロンは、下の条件を満たすような重みベクトルwを学習します。教師信号は、クラス1のとき教師信号+1、クラス2のとき-1(0じゃない)なので注意。 上の条件をまとめるとxnが正しく分類されているときは、 を満たします。この条件はあとでプログラム中で使います。パーセプトロンは、正しく分類されているパターンに対してはペナルティ0を割り当て、誤分類されたパターンにペナルティ を割り当てます。上の式の値はxnが誤分類されたデータの場合、必ず正になるので注意。なのでパーセプトロンの誤差関数(パーセプトロン基準)は、 で与えられます。ここで、Mは誤分類されたパターンの集合です。この誤差関数は誤分類のパターンが多いほど値が大きくなるので誤差関数を最小化するようなwを

                                                  パーセプトロン - 人工知能に関する断創録
                                                • JavaScriptによるパーセプトロン/Passive-Aggressive体験デモ - シリコンの谷のゾンビ

                                                  前回k-NNデモを作った後に「これパーセプトロンも同じようにデモ作れるんじゃね?」と思ったので実装してみた.今度はクリックでデータ点を追加できるようにしたり,サンプル選択方法を可変にしたり,PAの更新の様子を可視化すると面白いかもと思って後からPAも追加してみた. パーセプトロンは誤分類するサンプルを正しく分類するように超平面を更新する線形識別器で,Passive-Aggressive (PA) は損失を発生させるサンプルに対して損失が0になり,重みベクトルの変化量が最小になるように超平面を更新するアルゴリズム. オンライン学習についてざっくりした俯瞰は以下の資料などをご参照. TokyoNLP#5で「パーセプトロンで楽しい仲間がぽぽぽぽ〜ん」を発表しました というわけでk-NNと同じように公開. Perceptron/PA Demo ver.1.0 使い方 Update onceボタンで

                                                    JavaScriptによるパーセプトロン/Passive-Aggressive体験デモ - シリコンの谷のゾンビ
                                                  • TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん

                                                    KDD2014勉強会: Large-Scale High-Precision Topic Modeling on Twittersleepy_yoshi

                                                      TokyoNLP#5 パーセプトロンで楽しい仲間がぽぽぽぽ~ん
                                                    • Cybozu Inside Out: コンピュータはオー・ヘンリーとエドガー・アラン・ポーの文章を見分けられるか?(機械学習/パーセプトロン)

                                                      コンピュータはオー・ヘンリーとエドガー・アラン・ポーの文章を見分けられるか?(機械学習/パーセプトロン) サイボウズ・ラボの中谷です。 以前は nakatani @ cybozu labs でブログを書いていましたが、この "Cybozu Development Inside Out" で書かせていただくことになりました。 よろしくお願いします。 そして初回の記事は、なんと前回の続きです(ごめんなさい)。 前回記事「Perceptron を手で計算して理解してみる」では、オンライン機械学習の手法の一つ、パーセプトロンを紙と鉛筆で計算してみましたので、今回はそれを実装してみましょうというお話です。 ソースは github においています。 http://github.com/shuyo/iir/tree/master Perceptron 実装は簡単。手で計算した後なら、空で実装できてしまい

                                                        Cybozu Inside Out: コンピュータはオー・ヘンリーとエドガー・アラン・ポーの文章を見分けられるか?(機械学習/パーセプトロン)
                                                      • 量子機械学習の一歩踏み出す、伊チームがパーセプトロン実装に成功

                                                        イタリアのパヴィア大学の研究チームは、IBMの5キュービットの量子プロセッサー上にパーセプトロンを実装し、単純なパターンの初歩的な分類ができることを確認した。その後、IBMは16キュービットの量子プロセッサーをWeb上で利用できるようにしており、量子パーセプトロンの性能が飛躍的に向上するのは時間の問題だ。 by Emerging Technology from the arXiv2018.12.12 294 279 18 0 コンピューティング革命超初期の1958年、米海軍海事技術本部(ONR:Office of Naval Research)は記者会見を開き、コーネル航空研究所(Cornell Aeronautical Laboratory)の心理学者フランク・ローゼンブラットが考案した装置を発表した。ローゼンブラットはこの装置をパーセプトロンと呼んだ。ニューヨーク・タイムズ紙はパーセプ

                                                          量子機械学習の一歩踏み出す、伊チームがパーセプトロン実装に成功
                                                        • 単純パーセプトロンからの機械学習入門

                                                          上記のうち、重みwのパラメータを決めるための処理は「学習」と呼ばれる。 バイアスθ(バイアスパラメータ)はデフォルトでも使えなくはないが、より良い結果になるように人の手で調整(チューニング)する。 このバイアスのような人の手で調整するものは一般的にパラメータ(ハイパーパラメータとかチューニングパラメータ)と呼ばれ、パラメータを調整することをパラメータチューニングと呼ぶこともある。 ~パラメータの用例~ 「単純パーセプトロンでパラメータチューニングしたらそれなりの結果出たンゴ」 また、チューニング方法は様々存在し、人が手動でひたすら試す方法やグリッドサーチ、ランダムサンプリングなどがある。 1.1.どんなことに使える? 2クラス問題で線形分離可能な問題で使える。 線形分離可能な問題とは、大まかに言ってしまえば、2次元の場合はクラス1の集合とクラス2の集合を1本の直線で分離できる問題のことを指

                                                            単純パーセプトロンからの機械学習入門
                                                          • 多層パーセプトロンが収束する様子 - 人工知能に関する断創録

                                                            多層パーセプトロンによる関数近似(2014/1/22)の続きです。 もう少しスクリプトを改造し、実際に各重みと出力がどのように収束するかアニメーションにしてみました。ほとんどの関数は最初に急激に変化したあとだんだん収束していく様子が見てとれます。|x|は最初は誤差が減らずローカルミニマムにはまったかな?と思ったのですが、しばらく待っていたら急激に誤差が減りました。よかった、よかった。 残りは http://www.youtube.com/channel/UC4DmXhmsKZT48cRD6znEXaw このアニメーションを実行するスクリプトです。matplotlibにwxPythonを組み合わせることでアニメーションを実現しています。このアニメーションの書き方は、短時間フーリエ変換(2011/7/16)でも使いました。 次回は、数字の手書きデータを認識するニューラルネットを作りたいと思いま

                                                              多層パーセプトロンが収束する様子 - 人工知能に関する断創録
                                                            • パーセプトロンを実装してみた - Topics Related to Computers and NLP

                                                              実装力を磨くためと学習器への理解を深めるために、パーセプトロンを実装してみた。3時間ぐらいかかった。今のレベルはSVMの赤本に行く前ぐらいのレベル。 コードは以下にある。以下で参考にしたチュートリアルの擬似コードをそのまま実装した。 https://github.com/akkikiki/nlp_tutorial/blob/master/train_perceptron.py 以下のチュートリアルを参考にした。詳しい事はこちらに書いてあるが、概要を述べてみる。 パーセプトロンアルゴリズムと文書分類 ちなみに、自分は昨年の春ぐらいにPRML4章(パーセプトロン含む)を輪読会で発表したのだが、完全に忘れていたうえ、読んだ時も機械学習の全体像(識別関数、生成モデル、識別モデルから成る)が掴めていなかったので、いきなりPRMLを読むのはオススメしない。 今PRML4.1.7節を見たら「すごい、わか

                                                                パーセプトロンを実装してみた - Topics Related to Computers and NLP
                                                              • 城ヶ崎美嘉(CV:佳村はるかさん)の誕生日なので,セリフが城ヶ崎美嘉か城ヶ崎美嘉じゃないかを多層パーセプトロンで判別してみた - 鴨川にあこがれる日々

                                                                注意 深層学習じゃありません. はじめに 私はPではないので知りませんでしたが,今日は「アイドルマスターシンデレラガールズ」の城ヶ崎美嘉(CV:佳村はるか)の誕生日です.twitter.com おめでとうございます! ちなみに佳村はるかさんといえば「SHIROBAKO」の安原絵麻を演じていたのが記憶に新しいです*1. ちょうどよい機会なので,先日 Amazon.co.jp: 深層学習 (機械学習プロフェッショナルシリーズ): 岡谷 貴之: 本 の4章誤差逆伝播法を読んで実装した多層パーセプトロンを試しましょう. 数式については鴨川ηをご覧ください. 今回のタスクは以下のとおり セリフが城ヶ崎美嘉か城ヶ崎美嘉じゃないかを判別したい 本題 タスク自体はシンプルです*2. データ 肝心のセリフデータですが,Wikiのまとめにあったセリフをスクレイピングして使っています.1.5時間位でデータを作り

                                                                  城ヶ崎美嘉(CV:佳村はるかさん)の誕生日なので,セリフが城ヶ崎美嘉か城ヶ崎美嘉じゃないかを多層パーセプトロンで判別してみた - 鴨川にあこがれる日々
                                                                • TensorFlow(多層パーセプトロン:MLP)で株価予想 〜 株予想その2 〜 - Qiita

                                                                  はじめに 株投資の勉強を始めるのでそのメモを残していきます。 前回のTensorFlow(LSTM)で株価予想 〜 株予想その1 〜の続き ※前回の予測した株価 今回は多層パーセプトロン(MLP)を用いて株価が上がるか下がるかを分類し株価予測をしてみます。 [補足] 株以外にAIを用いた競馬予想 sivaを運用しています。 連対的中率 : 約 86% 回収率 : 約 136% twitterを始めました。フォローお願いします。 簡単な仕様 前回の予測方法として、前10日分の終値から、LSTMで翌日の株価を予測していました。 今回は前100日分の終値を入れ、翌日の株価が上がるか下がるかの2値分類をします。 先ずは株の予測実験 データは前回と一緒でこちらのデータを使います。 ダウンロードしてきたデータは日経平均の2007年〜2017年の情報。 日付, 始値, 高値, 安値, 終値のデータが入っ

                                                                    TensorFlow(多層パーセプトロン:MLP)で株価予想 〜 株予想その2 〜 - Qiita
                                                                  • やる夫で学ぶ機械学習 - パーセプトロン - · けんごのお屋敷

                                                                    やる夫で学ぶ機械学習シリーズの第 4 回です。分類問題を解くための基礎、パーセプトロンを図形的な側面から覗いてみます。 第 3 回はこちら。やる夫で学ぶ機械学習 - 多項式回帰と重回帰 - 目次はこちら。やる夫で学ぶ機械学習シリーズ 問題設定 やらない夫 今日は分類問題について詳しく見ていく。 やる夫 分類問題かお。やる夫は、女の子が巨乳か貧乳かを分類して、想像を膨らませたいお。 やらない夫 そんなものは深夜に一人でニヤニヤしながらやるか、いつも引きこもってないで外に出て本物の女の子を見ることだな。 やる夫 冗談きついお、やらない夫。 やらない夫 分類の場合も、回帰の時と同じように具体例を示して、それを元に話を進めていったほうがわかりやすいな。 やる夫 それが良いお。具体例は、やる夫の将来の嫁さんくらい大事だお。 やらない夫 また意味のわからないたとえをありがとう。今回は分類の話なので、そ

                                                                    • MapReduceによる構造化パーセプトロンの並列化 - nokunoの日記

                                                                      @neubigさんのつぶやきで,Hadoop HackathonというイベントがEMNLPに関連して行われたことを知る.Hadoop Hackathon 2011そこで実装された構造化パーセプトロンの並列実装が公開されたようだ.agesmundo/HadoopPerceptron - GitHub元々はGoogleによる論文があるようだ.Distributed Training Strategies for the Structured PerceptronHadoop Hackathonはプロジェクトのページを見ると非常に楽しそう.Hadoop Hackathon 2011データさえあればやってみたいと思うのだけど,Twitter Corpusは公開が停止されているようだ.残念.no titleWhat is Twitter, a Social Network or a News Med

                                                                      • ニューラルネットワークとパーセプトロン - Sideswipe

                                                                        これは 人工知能アドベントカレンダー の15日目の記事です。 今回はニューラルネットワークについて扱います。ニューラルネットワークはかなり歴史が古く、流行ったり廃れたりを繰り返しながら少しずつ進歩を遂げてきました。今日では、Deep Learningによって幅広い層にその存在を知られるようになり、一躍最新のアルゴリズムへと進化しました。ここではそんなニューラルネットワークについて見ていきましょう。 なお、この内容は 人工知能は Deep Learning によって成されるのか? - Sideswipe でも触れているので、かなり重複していますが興味があれば併せて御覧ください。 形式ニューロン 脳が神経細胞のネットワークによって成り立っていることから、これを模倣することで高度な情報処理ができるのではないかと予想するのは自然な流れといえます。マッカロック(McCulloch)とピッツ(Pitt

                                                                          ニューラルネットワークとパーセプトロン - Sideswipe
                                                                        • 高卒でもわかる機械学習 (3) 多層パーセプトロン

                                                                          XOR問題:単純パーセプトロンの限界 単純パーセプトロンの学習によって論理演算(ANDやORなど)の役割を果たす識別器を作ることを考えます。 真 = 1, 偽 = 0 とおき、, それぞれでいずれかを入力します。 パーセプトロンを通過した結果、それらを論理演算した値(0または1)が出力されるようにします。 0か1の出力なので、活性化関数 として単位ステップ関数を利用します。 単純パーセプトロンにおける重みベクトルの学習手順は前回説明したとおりですので、以下、学習によって具体的にどのような重みになってほしいか?という観点で話を進めます。 以下のようなアプローチで考察ができるのは2次元(入力が2つ)ならではです。 OR(論理和) まず、ORの役割を果たす単純パーセプトロンについて考えます。 OR の定義は下表のような感じですよね。 OR 1 1 1 1 0 1 0 1 1 0 0 0 入力値

                                                                            高卒でもわかる機械学習 (3) 多層パーセプトロン
                                                                          • [OpenNLP] 最大エントロピー法とパーセプトロンの分類器を使う - 株式会社ロンウイット

                                                                            Apache OpenNLPとは? Apache OpenNLP(以下OpenNLP)は、統計的自然言語処理(Statistical Natural Language Processing)のためのツールキットです。Javaで実装されたOSSの自然言語処理(NLP)ライブラリであり、2010年11月にApache Incubatorに寄贈され、2012年2月にApacheのトップレベルプロジェクト(TLP)に昇格しました。 自然言語処理と検索エンジンは技術的な関連が深いため、OpenNLPの知識があると、Solrの機能を改善したりパワーアップするのに大いに役立ちます。たとえばLUCENE-2899では、OpenNLPのトークナイザーをSolrから使うための改善提案が行われています。 OpenNLP関連記事の第一弾となる本稿では、OpenNLPの利用知識の入門として、OpenNLPに附属して

                                                                            • パーセプトロンはマージン最大化の夢を見るか? - 射撃しつつ前転 改

                                                                              前回の記事は長くなりすぎたので、長文を読みたくない人のために、まず三行であらすじをまとめる。 ソフトマージンSVMがマージン最大化してるって言うけど、ちゃんと理解するの結構難しくない? なんか自分の中で議論を進めると、正則化項つきパーセプトロンもマージン最大化に分類されるんだけど大丈夫? こうなったらもう、正則化項つきパーセプトロンを実装して、実験してみるしかない…次回に続く という話であった。 さて、前回の落ち穂ひろいから始めよう。前回「マージン最大化はSVMの特権ではなく、MIRAとかAveraged Perceptronとか、ラージマージン分類器と呼ばれる分類器はいくつもある」と書いたが、ここでは、「マージン最大化」という概念と、「ラージマージン」という、似たようだが違うかもしれない概念が混同して提示されている。どうも、この二つの用語は分けて考えた方が良さそうに思える。 その観点から

                                                                                パーセプトロンはマージン最大化の夢を見るか? - 射撃しつつ前転 改
                                                                              • 【T】機械式パーセプトロンでガリデブ判定【最終版】/NN#4

                                                                                機械学習シリーズmylist/58633287YouTube版 https://youtu.be/L4f6KGgX4xI特徴量1:高さ特徴量2:幅重み0(バイアス):後ろの壁の位置重み1:-1固定(上端から測る場合)または1固定(下端から測る場合)重み2:0~無限(立方体の時を1とした黄ブロックの奥行き)しきい値:前の壁の前面重み0+特徴量1×重み1+特徴量2×重み2がしきい値以上の場合、デブ。それ以外はガリ。©UTJ/UCL

                                                                                  【T】機械式パーセプトロンでガリデブ判定【最終版】/NN#4
                                                                                • Pythonでパーセプトロンを実装してみた - nokunoの日記

                                                                                  解説は後日. #!/usr/bin/env python #encoding: utf-8 from sys import stdin from optparse import OptionParser from collections import defaultdict from random import shuffle, seed from math import sqrt def sign(x): if abs(x) return 0 elif x > 0: return 1 return -1 def clip(x, c): return sign(x) * max(0., abs(x) - c) def parse(line, bias, discount): label, document = line.strip().split(" ", 1) features = {}