ブックマーク / zero2one.jp (1)

  • 深層学習において重要なシグモイドやReLUなどの活性化関数の特徴を解説

    シグモイド関数 まず、シグモイド関数について解説します。シグモイド関数は座標(0, 0.5)を基点として点対称となるS字型の滑らかな曲線で、その値は0から1までを取ります。深層学習におけるニューラルネットワークで用いられるシグモイド関数は標準シグモイド関数と呼ばれるものです。 標準シグモイド関数は厳密に式で書くと と表されます。eはネイピア数と呼ばれる定数で、その値は約2.718…という無理数です。 この式をPythonの描画ライブラリであるMatplotlibを用いて描画してみましょう。 デフォルトのコード import numpy as np import matplotlib.pyplot as plt #sigmoid関数を定義 def sigmoid(x): return 1/(1+np.exp(-x)) x = np.linspace(-8,8,1000) y = sigmoi

    深層学習において重要なシグモイドやReLUなどの活性化関数の特徴を解説
    stang499
    stang499 2023/07/09
  • 1