エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Haskell で『ゼロから作るDeep Learning』(2) - お布団宇宙ねこ
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Haskell で『ゼロから作るDeep Learning』(2) - お布団宇宙ねこ
『ゼロから作るDeep Learning – Pythonで学ぶディープラーニングの理論と実装』 の読書メモです。 今回... 『ゼロから作るDeep Learning – Pythonで学ぶディープラーニングの理論と実装』 の読書メモです。 今回は 「3.6 手書き数字認識」の手前まで。 前回 次回 3章 ニューラルネットワーク ニューラルネットワークとは パーセプトロンでは人力で重みを決めていくのに対して、ニューラルネットワークは適切な重みを自動で学習できる ニューラルネットワークは入力層、中間層(隠れ層)、出力層で構成される 前章の ニューロンは受け取った信号の総和を計算し、それがある値を超えたときのみに 1 を出力する というような動作は関数で表すことができる。このような関数を「活性化関数」と呼ぶ 出力層では、重み付き入力信号とバイアスの総和を計算し、それを活性化関数に渡した結果が出力される 活性化関数 前章のパーセプトロンで使われていた、閾値を境にして出力が切り替わる関数を「ステップ関数(階段関数)」と呼