並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 36 件 / 36件

新着順 人気順

パーセプトロンの検索結果1 - 36 件 / 36件

  • LabVIEWを使って単純パーセプトロンによる分類をやってみた - Qiita

    本記事の内容 LabVIEW Community Editionを使い、Irisデータセットに対して、単純パーセプトロンによる分類をおこないました。 下記サイトをゴッソリ参考にさせていただき、標準関数のみを使用して分類処理を作成しています。 "機械学習の元祖「パーセプトロン」とは?" https://rightcode.co.jp/blog/information-technology/simple-perceptron 処理の流れ 次の流れで処理をおこなっています。 1.データセットの読込、2.教師データの作成、3.散布図用データの作成、4.確率的勾配降下法による重みの更新、5.境界直線データの生成 順番に処理を説明します。 1.データセットの読込 あらかじめ下記処理で保存しておいたCSVファイルを読み込みます。 Irisデータセットは4次元のデータですが、結果のプロットを簡単にするため

      LabVIEWを使って単純パーセプトロンによる分類をやってみた - Qiita
    • 機械学習: パーセプトロン の Python コードを1行1行理解してデータ分類してみた - Qiita

      パーセプトロンはもうほとんど使われていないようですが、元祖機械学習アルゴリズムということで勉強しておいた方が後の機械学習の理解に役立つでしょう。 データの分類においてパーセプトロンは簡単に言えば、しきい値(nより大きいか小さいか)でAかBかを区別してみて、それが合ってたらOK、間違ってたら修正するというのを繰り返すものです。 じゃあ何を修正するの?という話なのですが、訓練データにはそれぞれ重みというのが掛け算でかかっています。もっというと、訓練データの持つ特徴量それぞれに重みがかかっています。この重みを修正するのです。 ちなみに重みは全ての訓練データ共通です。 w = (w1, w2, w3, …) しきい値がどんな値であろうとこの重みで訓練データを大きくしたり小さくしたりできるので、しきい値を正しくくぐり抜けられるように重みを修正していくのです。 そして何をしきい値に通すの?というと、そ

        機械学習: パーセプトロン の Python コードを1行1行理解してデータ分類してみた - Qiita
      • 多層パーセプトロン (MLP) 時代の到来と、トランスフォーマーの終焉

          多層パーセプトロン (MLP) 時代の到来と、トランスフォーマーの終焉
        • TJO on Twitter: "未だに「機械学習の勉強」と称してAI入門的ポエム本ばかり読んでいる人って少なくないようだけど、前々から言っているように機械学習を勉強するならロジスティック回帰かパーセプトロンを任意のプログラミング言語で実装するのが手っ取り早いと思… https://t.co/g1R0nysFRK"

          未だに「機械学習の勉強」と称してAI入門的ポエム本ばかり読んでいる人って少なくないようだけど、前々から言っているように機械学習を勉強するならロジスティック回帰かパーセプトロンを任意のプログラミング言語で実装するのが手っ取り早いと思… https://t.co/g1R0nysFRK

            TJO on Twitter: "未だに「機械学習の勉強」と称してAI入門的ポエム本ばかり読んでいる人って少なくないようだけど、前々から言っているように機械学習を勉強するならロジスティック回帰かパーセプトロンを任意のプログラミング言語で実装するのが手っ取り早いと思… https://t.co/g1R0nysFRK"
          • ステート・オブ・AI ガイド on Twitter: "我々はひょっとしたら「トランスフォーマー時代」の終わりを目の当たりにしているかも。 Google Brain から新たに発表された多層パーセプトロン (MLP) にゲート機構を組み合わせた「gMLP」、画像認識とBERT的言語モ… https://t.co/HhYTxyQT9l"

            我々はひょっとしたら「トランスフォーマー時代」の終わりを目の当たりにしているかも。 Google Brain から新たに発表された多層パーセプトロン (MLP) にゲート機構を組み合わせた「gMLP」、画像認識とBERT的言語モ… https://t.co/HhYTxyQT9l

              ステート・オブ・AI ガイド on Twitter: "我々はひょっとしたら「トランスフォーマー時代」の終わりを目の当たりにしているかも。 Google Brain から新たに発表された多層パーセプトロン (MLP) にゲート機構を組み合わせた「gMLP」、画像認識とBERT的言語モ… https://t.co/HhYTxyQT9l"
            • goでパーセプトロンの収束定理による重み学習 - Qiita

              はじめに 機械学習について勉強し始めた者です. 現在,「はじめてのパターン認識」を読んで理論について学んでいる段階です. 第二章では,パーセプトロンの学習規則について記述されていました. それについて理解するため,線形分離可能なデータ群に対する識別境界の決定を,パーセプトロンの収束定理を用いて実装しました.言語は,pythonではなくgolangでやってみようと思います. 機械学習のライブラリやツールがある中で,どうやって,識別しているのか理解できたらいいと思います. 実装環境 実装環境は以下の通りである. 今回行うこと. パーセプトロンの収束定理を用いてclass1とclass2の二つの決定境界を決定する. 学習データについて 今回は,二次元の特徴空間について考える.まず,(8.0, 2.0)と(3.0, 6.0)を軸にそれぞれclass1,class2として,100個ガウス分布に従って

                goでパーセプトロンの収束定理による重み学習 - Qiita
              • [機械学習]多層パーセプトロン(MLP)の仕組みを解説する

                はじめに 今まで機械学習の勉強をしてきましたが、機械学習のアルゴリズムをちゃんと説明できるようにアウトプットしていきたいと思います。プログラムの書き方というよりはアルゴリズムを解説していきたいと思います。 想定読者 基礎的な微分、線形代数は理解している プログラムは書けるけど、原理を理解していない方 機械学習に興味のある方 多層パーセプトロン(MLP)を簡潔に説明すると? 多層パーセプトロンは、名前の通りパーセプトロンをいくつも結合させて多層化したものになります。パーセプトロンは、複数の入力を受け取り、一つの信号を出力する関数になります(下図参照)。 パーセプトロン、多層パーセプトロンについてそれぞれ詳しく解説していきます。 まずはパーセプトロンについて パーセプトロンの中身をもう少し詳しく描いたものがこちらの図になります。 パーセプトロンの処理の流れは以下の通り。 各入力に重みを乗じる(

                  [機械学習]多層パーセプトロン(MLP)の仕組みを解説する
                • パーセプトロンによるXOR実装の可視化を入り口にして、ニューラルネットワークの基礎を理解する - Qiita

                  さてさて ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 を絶賛学習中です。。 書籍を真ん中くらいまで読み進めて、キホンに立ち返って知識を整理している最中なのですが、その際の覚え書きです。 書籍前半の、パーセプトロンによるXORゲートの作成からはじめて、ニューラルネットワークの定義までを復習してみます。 前提や対象のかた ニューラルネットワークって何?というかた。 書籍の2章パーセプトロンから、3章ニューラルネットワーク の復習という位置づけですが、書籍の知識は前提としていません。 書籍が「ゼロから作る〜」なので、内容は初歩的ですが多少数学的です(平面・空間図形、行列の一次変換(線形代数)を使います) 。 TL;DR AND/NAND/ORは単純パーセプトロンで実装出来る XOR(排他的論理和)は、OR/NAND をかけてからANDにかけることで

                    パーセプトロンによるXOR実装の可視化を入り口にして、ニューラルネットワークの基礎を理解する - Qiita
                  • パターン認識 (4) パーセプトロン ( Perceptron )

                    パターン認識の分野において、歴史上重要な役割を担ってきたものに「パーセプトロン ( Perceptron )」があります。パーセプトロンは「ローゼンブラット ( Frank Rosenblatt )」により 1962 年に公開された線形認識モデルの一つです。この章では、線形識別モデルの一般的な話から、その例としてパーセプトロンまでを紹介します。 1) 最近傍決定則 ( NN 法 ) ( Nearest Neighbor Rule ; NN Rule ) 「凝集型クラスタリング」の章でも説明したように、入力パターンの識別には「プロトタイプ ( Prototype )」と呼ばれる代表的な特徴ベクトルをあらかじめ用意しておいて、それを用いて行われます。そのようなお手本を用意せず、とりあえず近いものを集めるのがクラスタリングの考え方でした。今回はお手本があるので、最も近いお手本を選んでクラスタ分類

                    • パーセプトロンの基本と実装 - Qiita

                      パーセプトロンの学習 使用するネットワーク ・入力層,中間層,出力層の3層でできているネットワークです. ・層と層の間はフルで連結します. ・すべてのニューロンは$1$か$0$を出力します. パーセプトロンの目的は中間層と出力層の間の重み(シナプス荷重)を学習し,入力パターンに対応する出力パターンを生成することです. 入力層 $M$個のニューロンがあるとします. 外部からの入力をそのまま受け取って,出力します. $i$番目のニューロンの出力は以下の式で表します. $$output_i = input_i$$ 中間層 $N$個のニューロンがあるとします. 中間層の$j$番目のニューロンに与える入力は,すべての入力層ニューロンの出力値にシナプス荷重$w_{i,j}$をかけた値の和です. $$input_j=\sum_{i=1}^{M}{w_{i,j}output_i}$$ そして,それぞれの中

                        パーセプトロンの基本と実装 - Qiita
                      • パーセプトロンを実際に試してみる - Pythonと機械学習

                        前回まででパーセプトロンが具体的にどんなものかわかりました。 更に理解を深める為には、やはり実際に自分で作ってみるのがいいと思います。 テキストにスクリプト例が載っていましたが、どうも分かりずらいので自分でわかりやすい様にコーディングしてみようと思います。 ULC Machine Learning Repositoryから、機械学習のテスト用データをダウンロードすることができるみたいです。 機械学習のベンチマークではアヤメのがくと花びらの特徴と品種名をサンプルしたデータが良く使われているようです。 このデータの中身は以下のようになっています。 ※pandasでread_csvでとってきてそのままコンソール出力してます。 0 1 2 3 4 0 5.1 3.5 1.4 0.2 Iris-setosa 1 4.9 3.0 1.4 0.2 Iris-setosa 2 4.7 3.2 1.3 0.

                          パーセプトロンを実際に試してみる - Pythonと機械学習
                        • 多層パーセプトロンの境界値を可視化する - Qiita

                          はじめに 学習後の境界値を可視化します。 以下のような図です。 入力の次元が2次元の場合は、このように境界を可視化できます。 今回は、TensorFlow の多層パーセプトロンを例に可視化してみたいと思います。 目次 1.学習用データ 2.モデル(多層パーセプトロン) 3.可視化の方針 4.meshgrid 5.等高線プロット 6.全コード 履歴 1.学習用データ 今回利用するデータは、scikit-learn の dataset にある三日月型のデータセットを利用します。 2次元のデータですので、平面で図示できます。 from sklearn import datasets from sklearn.model_selection import train_test_split import matplotlib.pyplot as plt ''' 三日月データを生成する ''' N =

                            多層パーセプトロンの境界値を可視化する - Qiita
                          • 深層学習の歴史(パーセプトロンからTuring賞まで) | AI&数理最適化技術を用いたサプライチェーン最適化 - ログ・オプト -

                            いま流行の深層学習(deep learning)はニューラルネットから生まれ,そのニューラルネットはパーセプトロンから生まれた.起源であるパーセプトロンまで遡ろう. 1958年に,コーネル大学の心理学者であったF. Rosenblattがパーセプトロンの概念を提案した.これは1層からなるニューラルネットであり,極めて単純な構成をもつが,当時は部屋いっぱいのパンチカード式の計算機が必要であった. 隠れ層のない2層のニューラルネットでの出力誤差からの確率的勾配降下法は1960年にB. Widrow と M.E. Hoff, Jr. らが Widrow-Hoff 法(デルタルール)という名称で発表した.隠れ層のある3層以上のニューラルネットは、1967年に甘利俊一が発表した. 1969年に,MITのM. Minsky(人工知能の巨人として知られる)が,ニューラルネットの限界についての論文を発表し

                            • AI初心者向け!多層パーセプトロン(MLP)とは何かを説明してみた

                              昨今、機械学習を用いた開発が非常に活発に行われていますよね。そんな機械学習を用いた開発を行ってみたい方もいるではないでしょうか。 機械学習のアルゴリズムの1つにニューラルネットワークがあります。このニューラルネットワークの基本になっているのが、人間の脳を模した構造を数理モデル化した「パーセプトロン」です。人間の神経細胞のように細胞と細胞を多層に組み合わせたモデルを多層パーセプトロン(MLP)と呼んでいます。とはいえ、多層パーセプトロンってどのような仕組みになっているか非常に理解しにくいですよね。 そこで今回は、ニューラルネットワークの考え方の基本になっている多層パーセプトロン(MLP)についてお伝えします。この記事で、多層パーセプトロン(MLP)の基礎を理解しましょう。 基本の基本AI(人工知能)とは何? まずは、AI(人工知能)とは何かをご紹介します。AI(人工知能)は、Artifici

                                AI初心者向け!多層パーセプトロン(MLP)とは何かを説明してみた
                              • PyTorchやNumPyを使わず人工知能を作ってみた ・ 自分で人工知能を作ってみよう「01 - パーセプトロンと逆伝播」 - Qiita

                                PyTorchやNumPyを使わず人工知能を作ってみた ・ 自分で人工知能を作ってみよう「01 - パーセプトロンと逆伝播」Python初心者Python3AI人工知能 準備 Andrej Karpathy 元Tesla社AI部部長・Autopilotプロジェクト開発リーダー OpenAI創設者メンバーの一人、現在OpenAI所属 この記事はAndrej Karpathy氏の動画: The spelled-out intro to neural networks and backpropagation: building micrograd を日本語翻訳したものです。この動画はPyTorchやNumPyなどのニューラルネットワークライブラリーを使わずmathのみで $0$ から基本的なニューラルネットワーク(今回はパーセプトロン)の演算ができるものを作ってみようといった趣旨の動画です。 な

                                  PyTorchやNumPyを使わず人工知能を作ってみた ・ 自分で人工知能を作ってみよう「01 - パーセプトロンと逆伝播」 - Qiita
                                • 多層パーセプトロンを1から作ってみた - Qiita

                                  この記事は,Pythonそのものの使い方かDeepLearningの仕組みまで,1から細かく学習した際のメモ書きとスライドのまとめです. 多層パーセプトロン(AND真偽値表の学習) 今回は,多層パーセプトロン(Perceptron)を用いて,AND真偽値表の出力を学習させることを目指す.AND真偽値表とは,入力の2つが共に1である時のみ1を出力するものである. このAND真偽値表は,前回の1から学ぶDeepLearning (1) で扱ったように,単純パーセプトロンで学習ができたものであった. 今回は,多層パーセプトロンを学習することを第一の目的として,内容の同じ学習を行い,単純パーセプトロンとの違いを見てみることにする. import numpy as np # 活性化関数の定義(Sigmoid関数) def sigmoid(x): return 1/(1+np.exp(-x)) def

                                    多層パーセプトロンを1から作ってみた - Qiita
                                  • 6−2 目からうろこポロポロ!〜2章「パーセプトロン」

                                    つまり、層を深く(ディープに)していくと、 より柔軟な表現が可能となる。 さらに多層のパーセプトロンは、理論上、 コンピュータを表現できるほどで、(*) それが「ディープラーニング」へとつながっていく。 ステキな短編小説を読んだみたいだ。 この章を読むだけでも、価値がある。 AIを学習する、すべてのひとに勧めたい。 ただ、これだけでは終わらない。 本書のメインは「ゼロから作る」こと。 さっそく、コードが出てくる。 コードをそのまま、グーグル ・コラボに写経し、 さらにルーズリーフに書き写す。

                                      6−2 目からうろこポロポロ!〜2章「パーセプトロン」
                                    • 単純パーセプトロンの学習をPythonで実装する - Qiita

                                      $0$を決定境界として、それ以上であればクラス$c_0$に、そうでなければクラス$c_1$に属すると判断できます。これを実現するために、入力データすべてにおいて、識別関数の出力が正しくなるように重み$w_i$を決定することが、パーセプトロンの学習です。 実装 先んじて、今回実装したコードを記載します。簡単な解説は後述。 環境 実装環境は以下の通りです。データセットはsk-learnのirisデータセットを使用しました。 ・Windows 11 Pro ・Python 3.12.3 ・irisデータセット 実装コード # ===== import ===== import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn.datasets import load_iris # irisデー

                                        単純パーセプトロンの学習をPythonで実装する - Qiita
                                      • パーセプトロンアルゴリズムをPythonコードを交えて紹介

                                        はじめに PRML(Pattern Recognition and Machine Learning)でパーセプトロンアルゴリズム(単純パーセプトロン)について学んだ内容をまとめて、実際のデータを使って学習しました。主に4.1.7の内容です。このアルゴリズムはニューラルネットワークの分野に影響を与えましたが、現在は実用的でないです。 パーセプトロンアルゴリズム 変数一覧と概要 訓練データの数 N 基底関数の数 M 訓練データの説明変数 \mathbf{X} = \left\{\mathbf{x}_1, \mathbf{x}_2, \cdots \mathbf{x}_N\right\}, \mathbf{x}_n = (x_{n, 1}, x_{n, 2}, \cdots, x_{n_D})^T 訓練データの目的変数 \mathbf{t} = \left\{t_1, t_2, \cdots

                                          パーセプトロンアルゴリズムをPythonコードを交えて紹介
                                        • 単純パーセプトロンを1から作ってみた - Qiita

                                          はじめに 前提として,Pythonの基本的な使い方(クラスを扱える程度)を理解していることとして話を進める. ライブラリであるNumpyを扱うが,この分野でよく使い,複雑な挙動をするnumpy.dot()と,ニューラルネットワークで一般的に使用されるシグモイド関数については,以下に解説する. 上記のnumpy.dot()の挙動については,以下のコードを用いて確認ができる. import numpy as np # A,Bが共に1次元配列の場合 A = np.array([1,2,3]) B = np.array([2,4,6]) ans1 = np.dot(A,B) print("ans1 = ", ans1) # A,Bのどちらかに2次元配列を指定した場合 A = np.array([[1,1],[2,2],[3,3]]) B = np.array([[1,2],[3,4]]) ans2

                                            単純パーセプトロンを1から作ってみた - Qiita
                                          • 《機械学習》多層パーセプトロン(MLP)をわかりやすく解説 | AI専門ニュースメディア AINOW

                                            最終更新日: 2022年9月13日 みなさんMLP(多層パーセプトロン)をご存じでしょうか?機械学習を使って何か開発してみたいと思っている人の中には、MLPっていったい何だろうと思っている方もいるでしょう。AIについて興味がある人にとってMLPの知識は持っていて損はないものです!そこで今回は機械学習におけるMLPについて詳しくご紹介したいと思います! MLP(多層パーセプトロン)とは MLP(多層パーセプトロン)とは人間の脳をモデル化したパーセプトロンというものを多層化したもののことです。これは、機械学習のアルゴリズムの1つであるニューラルネットワークの基本となるものです。 単純パーセプトロンは入力層と出力層からなるのに対し、上の図のようにMLPには入力層・中間層(隠れ層)・出力層の最低でも3つの層からなり、層が複数追加されているのが特徴です。 他のニューロンで出力されたものを別のニューロ

                                              《機械学習》多層パーセプトロン(MLP)をわかりやすく解説 | AI専門ニュースメディア AINOW
                                            • パターン認識 パーセプトロンの学習規則による二値分類について - Qiita

                                              パターン認識のパーセプトロンの学習規則について説明します。 まずは人工知能における機械学習の分類から説明します。 機械学習の学習方法は教師あり学習、教師なし学習、強化学習に分けられます。 一つずつ見ていきましょう。 教師あり学習とは学習データに正解を与えて学習を与える方法です。 例えば犬の画像を見せて、これは犬の画像だよと教えます。 何枚も教える事で人工知能は犬の画像を見分けられるようになります。 これが教師あり学習です。 教師なし学習とは学習データに正解を与えないで学習をさせる方法です。 教師なし学習が得意とするのはクラスタリングです。 これはデータの類似度に基づいてデータをグループ分けする方法です。 強化学習は学習データに正解は無いが、望ましい行動をした時に報酬を与えて報酬を最大化するような行動を取るような人工知能です。 将棋AIや囲碁AIといったゲームAIが打ち手を学習する際の手法と

                                                パターン認識 パーセプトロンの学習規則による二値分類について - Qiita
                                              • MLP(多層パーセプトロン)

                                                MLP(多層パーセプトロン)の周辺知識 MLPを理解する上ではいくつかの概念を理解する必要があります。 パーセプトロン ニューラルネットワーク 深層学習(ディープラーニング) パーセプトロン・ニューラルネットワーク・深層学習・MLPの違いは必ずしも明確になっているわけではありませんが、それぞれ詳細を確認していきましょう。 パーセプトロンは単純パーセプトロンとも呼ばれ、人間の脳の神経細胞を模して考えられたアルゴリズムです。パーセプトロンは2層のニューラルネットワークと考えることができ、複数の入力からスカラーの出力を得るモデルです。しかし一度の線形変換のみから構成されるこのモデルでは線形分離不可能なデータをうまく識別することができず、うまく識別できるデータは限られていました。 ニューラルネットワークは脳の神経細胞を模して作られた機械学習モデルの総称であり、単純パーセプトロン、MLP、深層学習の

                                                  MLP(多層パーセプトロン)
                                                • 機械学習のアルゴリズム(単純パーセプトロン) - Qiita

                                                  はじめに 以前、「機械学習の分類」で取り上げたアルゴリズムについて、その理論とpythonでの実装、scikit-learnを使った分析についてステップバイステップで学習していく。個人の学習用として書いてるので間違いなんかは大目に見て欲しいと思います。 今回から分類問題(Classification)にとりかかるつもりです。まずは基本のパーセプトロンから。 今回参考にしたのは以下のサイト。ありがとうございます。 初心者の初心者による初心者のための単純パーセプトロン 単純パーセプトロンの解説・実装 単純パーセプトロンをPythonで組んでみる 2クラス分類とは 2クラス分類は、ある入力に対し「1」か「0」か(または「1」か「-1」)を出力することを言います。「60%の確率で故障するかも」ではなく故障するかしないか白黒つけます。2クラス分類にもいろいろあり、パーセプトロンは最も基本の分類機にな

                                                    機械学習のアルゴリズム(単純パーセプトロン) - Qiita
                                                  • 【機械学習基礎編】多層パーセプトロンとは何か、基本から解説

                                                    昨今ではAI(人工知能)やディープラーニングなどに世界中が注目していますよね。実はこれらのものは多層パーセプトロンと呼ばれるニューラルネットワークが根幹となり、今日まで発展しました。 なお、多層パーセプトロンおよびニューラルネットワークは人間の脳の機能をモデル化する試みとして、1957年ごろから研究されるようになりました。そして、さまざまな課題や技術的な問題を乗り越えることで、人間を超えるようなAI(人工知能)やディープラーニングが生まれました。 そこで今回は、機械学習の基礎として多層パーセプトロンとは何であるのかを基本からわかりやすく解説しましょう。多層パーセプトロンについて正しく理解して、より発展的な機械学習を学んでください。 多層パーセプトロン(MLP)とは 多層パーセプトロン(MLP)とは人間の脳の神経細胞であるニューロンの働きをモデル化したパーセプトロンの構造を多層化したものです

                                                      【機械学習基礎編】多層パーセプトロンとは何か、基本から解説
                                                    • 「単純パーセプトロン」を使った分類(フルーツのグループ分け)を体験できる Scratch プロジェクト - kakakakakku blog

                                                      最近「Scratch ではじめる機械学習」を読んでいる.Scratch を使って「機械学習」を体験することができて,非常に楽しめている.書評記事はまた別に書く予定!本書の中で「第4章 : 機械学習について学ぼう」を読んでいたら「単純パーセプトロン」を使った分類(フルーツのグループ分け)を体験できる Scratch プロジェクトが紹介されていた.実際に試すことができるので紹介する! Scratchではじめる機械学習 ―作りながら楽しく学べるAIプログラミング (オライリー・ジャパン) 作者:石原 淳也,倉本 大資オライリー・ジャパンAmazon フルーツのグループ分け(単純パーセプトロン) on Scratch さっそく試す🍎🍌 緑色の旗🚩を押すとランダムに「10個」のリンゴ🍎が配置される.その中から自由にリンゴを1個選んでクリックするとバナナ🍌になり,そこから学習をする.最適な境

                                                        「単純パーセプトロン」を使った分類(フルーツのグループ分け)を体験できる Scratch プロジェクト - kakakakakku blog
                                                      • パーセプトロンの学習アルゴリズム - あきちゃんログ

                                                        分類問題が線形分離可能であれば、単純パーセプトロンで解決できる。例として、パーセプトロンで論理回路を作るというものがある。それについては 単純パーセプトロンによる論理回路(1) 単純パーセプトロンによる論理回路(2) を参照。 論理回路の場合、座標上の4点(0, 0), (0, 1), (1, 0), (1, 1)を考える。各点は、論理回路の2つの入力の組に対応する。信号を流す(真)が1、信号を流さない(偽)が0だ。これらの点を、対応する論理回路の出力が0か1かで分離するような直線を見つければいい。それが、パーセプトロンの重み(パラメータ)を設定することに相当する。ただし、適切な重みの設定をするのは人間だ。 人間が設定しなくても、適切な重みを自動で学習できることが望ましい。そこで、scikit-learnに含まれるiris(アヤメの品種データ)を使って、パーセプトロンの学習アルゴリズムを試

                                                        • 線形重回帰からロジスティック回帰、多層パーセプトロン、オートエンコーダーまでPyTorchでいっぱい統治する - Qiita

                                                          線形重回帰からロジスティック回帰、多層パーセプトロン、オートエンコーダーまでPyTorchでいっぱい統治するPythonPyTorch

                                                            線形重回帰からロジスティック回帰、多層パーセプトロン、オートエンコーダーまでPyTorchでいっぱい統治する - Qiita
                                                          • 非情報系大学院生が一から機械学習を勉強してみた #1:パーセプトロン - Qiita

                                                            はじめに 非情報系大学院生が一から機械学習を勉強してみました。勉強したことを記録として残すために記事に書きます。 進め方はやりながら決めますがとりあえずは有名な「ゼロから作るDeep-Learning」をなぞりながら基礎から徐々にステップアップしていこうと思います。環境はGoogle Colabで動かしていきます。初回はニューラルネットワークの基礎、パーセプトロンです。 目次 パーセプトロンとは パーセプトロンによる論理回路 パーセプトロンの限界 多層パーセプトロン(MLP) 1. パーセプトロンとは 人間の脳内はニューロンと呼ばれる細胞が発火し次々と信号を伝えています。ニューラルネットワークとはこのニューロンの働きを模倣したシステムで、1つ1つのニューロンの働きをするものをパーセプトロン(人口ニューロン、単純パーセプトロンともいう)といいます。 2入力$x_1, x_2$のシステムを考え

                                                              非情報系大学院生が一から機械学習を勉強してみた #1:パーセプトロン - Qiita
                                                            • パーセプトロン | ニュートラルネットワークの基本アルゴリズム

                                                              2019.02.25 単純パーセプトロン パーセプトロンは、複数のシグナルを受け取り、1 つのシグナルを出力する。パーセプトロンは、以下のように入力データ x = (x1, x2, ..., xm) を受け取り、受け取った各特徴量に対してウェイト w = (w1, w2, ..., wm) をかけて合計を計算する。そして、その合計値に定数項 w0 を加えて(z = w0 + Σwixi)、活性化関数に代入する。活性化関数は、z を受け取り、z > θ ならば 1 を出力し、そうでなければ 0 を出力する。 パーセプトロンを数式で表すと次のようになる。ただし、下記の例では、活性化関数 g(z) をステップ関数としたので、z > 0 かどうかで出力が 1 または 0 となっている。実際には、活性化関数にシグモイド関数や ReLU 関数などを用いると、g(z) の出力値は 0 または 1 以外の

                                                              • 歴史をたどってディープラーニングを学ぶ第十二回 Global Average Poolingでついにパーセプトロンの面影をすべて失ったディープラーニングを学ぶ - Sansan Tech Blog

                                                                こんにちは、ニューラルネット老人こと糟谷勇児です。 今回はGlobal Average Poolingを学んでいきます。 Global Average Pooling層を入れると全結合層が要らないらしいぞと聞いて、思いは複雑です。 というのも、私が学生の頃に学んだバックプロパゲーションを用いたパーセプトロンは全結合層をSigmoid関数でつないだものでした。今や、SigmoidはReLUとSoftmaxになり、全結合層はコンボリューション層とPooling層だけになりと、ついに当時の面影がゼロになってしまうからです。とはいえ、当時のパーセプトロンは精度がそんなに良くなかったので、全結合層がなくなると、まあ精度も上がるんだろうななんて思ってしまうのもやはり複雑な思いです。 そのうち、バックプロパゲーションもなくなるのかもしれないですね。 ところでバックプロパゲーションを誤差逆伝搬法と日本語で

                                                                  歴史をたどってディープラーニングを学ぶ第十二回 Global Average Poolingでついにパーセプトロンの面影をすべて失ったディープラーニングを学ぶ - Sansan Tech Blog
                                                                • 【Python】パーセプトロンモデルを利用した線形分類の実装 - Qiita

                                                                  早稲田大学本庄高等学院所属でプログラミング系の活動をしているアイスです。 概要 パーセプトロンを用いた学習アルゴリズムをPythonで実装します。Irisの花のデータセットから、「がく片の太さ」と「花びらの太さ」を取り出し、計100個のデータを描画、その分布を元に決定境界を学習させる。 結果として、次のようなグラフが描画されることを目標とすることにする。 上の画像は、Google Colaboratory を利用して描画したグラフです。このグラフを描画するまでの過程を説明する。 データセットの取得 scikit-learnはimportせず、インターネット上のmachine-learning-databasesから直接データを取得。 import numpy as np import pandas as pd # machine-learning-databasesからデータを取得 df

                                                                    【Python】パーセプトロンモデルを利用した線形分類の実装 - Qiita
                                                                  • 人工パーセプトロンの実装をpythonでやってみた - Qiita

                                                                    読んだ本 『[第2版]Python 機械学習プログラミング 達人データサイエンティストによる理論と実践 (impress top gear)』 ↑ちょっとデータを変えて色々遊んでいますが、基本的にはこの本の2章をそのままやっただけです。 2. 分類問題 ー 単純な機械学習アルゴリズムのトレーニング これはパーセプトロンの基本概念の簡単な図 (『Python 機械学習プログラミング 達人データサイエンティストによる理論と実践』第二章より引用) パーセプトロンの初期の学習規則 1. 重み $ \mathbf{w} $ を0または値の小さい乱数で初期化する トレーニングサンプル $ \mathbf{x}^{(i)} $ ごとに次の手順を実行する。 出力値 $ \hat{y} $ を計算する 重みを更新する $$ w_j := w_j + \Delta w_j $$ $$ \Delta w_j =

                                                                      人工パーセプトロンの実装をpythonでやってみた - Qiita
                                                                    • AI(人工知能)分野でよく耳にする「パーセプトロン」について解説

                                                                      近年、AI(人工知能)が、さまざまなところで活用されている話を聞くようになりましたよね。それはここ数年でAI(人工知能)技術が急速な進化をしているためで、そのきっかけを作ったのがパーセプトロンです。 パーセプトロンは、現在のAI(人工知能)を進化させている頭脳の原理。そのパーセプトロンが発展してできたのがディープラーニングで、現在までに多くのAI(人工知能)開発に用いられています。 ディープラーニングとは、これまで不可能だったAI(人工知能)自身が学習して性能を上げられる技術です。現在、ディープラーニングによってAI(人工知能)は進化を続けています。 そのため、現在のAI(人工知能)の仕組みを知りたいなら、ディープラーニングの起源になるパーセプトロンを学ぶと、よりAI(人工知能)を理解できることは間違いありません。そこで今回はパーセプトロンについてと、つながりがあるニューラルネットワーク、

                                                                        AI(人工知能)分野でよく耳にする「パーセプトロン」について解説
                                                                      • 単純パーセプトロンをExcelに実装して2値分類問題を解いてみた。 | ロジギーク

                                                                        2値分類問題とは? 倉庫の中の従業員が熱射病になり易い条件を調べるために、次のようなデータを採りました。 グラフにすると次のようになります。 このグラフの点線のように、熱射病になる境目の条件をニューラルネットワークで求めてみましょう。 このように任意のデータを2つのクラスに分ける問題を2値分類問題といいます。 これはニューラルネットワークの中でも最も簡単な単純パーセプトロンで求めることができます。 >> 【初心者向け】ニューラルネットワークの仕組みをわかりやすく解説 単純パーセプトロンのアルゴリズムを2値分類問題で理解する 求める境界線を定式化する まずは問題を式で表現するところからスタートします。 境目の線は直線ですから、中学校で習った一次関数で表現できます。 一次関数の式は y=ax+b でしたね。 これでも良いのですが、この式は横軸がx、縦軸がyの場合にしか使えません。 ということは

                                                                          単純パーセプトロンをExcelに実装して2値分類問題を解いてみた。 | ロジギーク
                                                                        • ゼロから作るDeep Learning 2章 パーセプトロン 備忘録 - Qiita

                                                                          はじめに どうも,ろんです. 前回に引き続きオーム社の「ゼロから作るDeep Learning」の備忘録を書いていきます. パーセプトロンとは パーセプトロンとは複数の信号を入力として受け取り,一つの信号を出力するアルゴリズムである. パーセプトロンの信号は「流す/流さない」の0か1であり,0は「信号を流さない」,1は「信号を流す」とする. 下の図に2入力のパーセプトロンの例を示す. $x_1,x_2$は入力信号,$y$は出力信号,$w_1,w_2$は重みを表す. ○はニューロンやノードと呼ばれる. 入力信号はニューロンに送られる際にそれぞれ固有の重みが$w_1x_1,w_2x_2$のように乗算される. ニューロンでは送られてきた信号の総和が計算され,その総和が特定の値(閾値)を超えた場合(発火するとも表現される)にのみ1を出力する. y = \left\{ \begin{array}{l

                                                                            ゼロから作るDeep Learning 2章 パーセプトロン 備忘録 - Qiita
                                                                          1