タグ

2020年2月24日のブックマーク (5件)

  • ニューラルネットワークとは|仕組み・学習手法・活用事例・ディープラーニングとの違い | Ledge.ai

    近年、新たな技術革新として話題に上がるAI人工知能)を支えている技術がニューラルネットワークです。 稿では、AIで「魅力」の予測や向上を図る「魅力工学」を研究し、さまざまな企業と共同研究を行っている、東京大学大学院情報理工学系研究科の山崎俊彦准教授監修のもと、ニューラルネットワークについて詳しく解説します。 山崎俊彦氏 東京大学工学系研究科電子工学専攻修了。工学博士。 現在、東京大学大学院情報理工学系研究科電子情報学専攻准教授。 2011~2013年まで米国・コーネル大学 Visiting Scientist。 ビッグ・マルチメディア・データを用いた魅力工学の研究に従事。 ニューラルネットワークとは? Photo by Ahmed Gad on Pexels ニューラルネットワーク(Neural Network)とは、脳の神経回路の一部を模した数理モデル、または、パーセプトロンを複数組

    ニューラルネットワークとは|仕組み・学習手法・活用事例・ディープラーニングとの違い | Ledge.ai
  • [Pythonチートシート]クラス定義編

    このようにして定義したクラスはobjectクラスの派生クラスとなる。 __init__メソッドは、そのクラスのインスタンス(オブジェクト)を定義する際に、インスタンスが持つ属性(インスタンス変数)の初期化などを行うために使用する。インスタンスメソッドは、インスタンスを介して呼び出し可能な操作である。 これらのメソッドの定義では第1パラメーターには暗黙の「self」を置く(selfには初期化を行う対象となるインスタンス、またはメソッド呼び出しに使われたインスタンスが渡される)。メソッド内でインスタンスの属性にアクセスする際には「self.属性」の形でアクセスする。また、(一般には)メソッドを呼び出す際にはselfには引数の形で値を与えることはない。 クラスを定義すると、「クラスオブジェクト」が作成される。そのクラスのインスタンスを定義するにはクラス名にかっこ「()」を付加して呼び出しを行う(

    [Pythonチートシート]クラス定義編
  • 変分と機械学習 - HELLO CYBERNETICS

    はじめに 変分法 変分 微分との差異 微分可能 変分と汎関数 補足 機械学習 関数近似 変分ベイズ法 はじめに 変分法 変分 変分の概念は下記の通りです。 引数 $x$ を受け取る関数 $F[x]$ に関して、引数を $x + h$ へ変えることを考えましょう。すると、引数を変えたことによる $F$ の変化量は $$ \delta F[x] = F[x + h] - F[x] $$ と表すことができます。この $\delta F[x]$ を変分と呼びます。 微分との差異 さて、上記までの議論を見てみると、これは普通にいつも考える微分と何も違いが無いように見えるでしょう。 実際、微分とは、関数 $f(x)$ の引数 $x$ を $x + h$ と変化させた時の $f$ の変化量 $$ {\rm d} f = f(x + h) - f(x) $$ のことを指すのでした。何やら文字の書き方がちょ

    変分と機械学習 - HELLO CYBERNETICS
  • 数学を避けてきた社会人プログラマが機械学習の勉強を始める際の最短経路 - Qiita

    巷ではDeep Learningとか急に盛り上がりだして、機械学習でもいっちょやってみるかー、と分厚くて黄色い表紙のに手をだしたもののまったく手が出ず(数式で脳みそが詰む)、そうか僕には機械学習向いてなかったんだ、と白い目で空を見上げ始めたら、ちょっとこの記事を最後まで見るといいことが書いてあるかもしれません。 対象 勉強に時間が取れない社会人プログラマ そろそろ上司やらお客様から「機械学習使えばこんなの簡単なんちゃうん?」と言われそうな人 理系で数学はやってきたつもりだが、微分とか行列とか言われても困っちゃう人 この記事で行うこと 数学の基礎知識に慣れるための、数式が最初から出てこないプログラマ向けの数学入門書の紹介 機械学習の初学者には鉄板の、オンライン講座(MOOC)の機械学習コース紹介 環境 WindowsでもMacでもLinuxでも大丈夫(MATLAB/Octaveというツール

    数学を避けてきた社会人プログラマが機械学習の勉強を始める際の最短経路 - Qiita
  • ニューラルネットワークの学習を部品(レイヤー)別にざっくり整理/活性化関数「Tanh」「Sigmoid」「ReLu」 - SE_BOKUのまとめノート的ブログ

    目次 活性化関数をざっくりイメージ 活性化関数の整え方のアプローチ 役割1:単位をそろえて比較しやすくする 役割2:特徴を際立たせる アプローチによって相性のよいデータ が違う Neural Network Consoleのリファレンスで確認 グラフを見て役割をイメージ Pythonで各活性化関数を実装 活性化関数には有効範囲があります まとめ:活性化関数は特性を意識して使う 活性化関数をざっくりイメージ 活性化関数について、ざっくり整理します。 専門用語を極力使わず、多少の不正確さは目をつぶっても、なんとなくイメージできることを目標にして整理します。 まず、ニューラルネットワークで学習する流れをざっくり図にしてみました。 ニューラルネットワークの目的のひとつとして「既存の正解がわかっているデータで勉強(学習)して、未知のデータから、正解が導けるようになること」があります。 ポイントはどう

    ニューラルネットワークの学習を部品(レイヤー)別にざっくり整理/活性化関数「Tanh」「Sigmoid」「ReLu」 - SE_BOKUのまとめノート的ブログ