タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

mathとtensorflowに関するmanabouのブックマーク (2)

  • 数学系向けDeepLearning/Tensorflow入門 - Qiita

    DeepLearningは最近ブームであり,その有名なライブラリとしてTensorflowがあります. この記事ではDeepLearningの基的な部分を数式を使って書き下すこととTensorflowの使い方を紹介します. 今更っていう気もしますが…,そこは気にしないでおくことにします 主な対象はベクトル空間やテンソル積等をある程度知っているけれど,DeepLearningは知らない人です. なので表記も大学の数学でよく出てくるものしています. なおニューラルネットワークの積分表現には触れません. 三層パーセプトロン ニューラルネットワークの基的な形の一つである三層パーセプトロンを定義します. 定義 (三層パーセプトロン) 行列$W_1 \in M_{n_0 n_1}(\mathbb{R}),W_2 \in M_{n_1 n_2}(\mathbb{R})$とベクトル$b_1 \in \

    数学系向けDeepLearning/Tensorflow入門 - Qiita
  • TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その2) - めもめも

    何の話かというと enakai00.hatenablog.com 上記の記事では、隠れUnitが2個という、世界で最もシンプルなニューラルネットワークを構成しました。 これをちょこっとだけ、拡張して遊んでみます。 隠れUnitを増やす それぞれの隠れUnitは平面を直線で分割するわけですので、隠れUnitを増やせば分割線がどんどん増やせます。 前回のコードでは、下記の部分で隠れUnitの個数を指定していたので、これを変えてためしてみます。ここでは、4個にしてみます。 hidden1_units = 4 はい。予想通り、境界線がより複雑になりました。隠れUnitの数をどんどん増やすことで、どれほど複雑な関数でも表現できてしまいます。 ちなみに、上図の左側では、確率0.5を境界にして○と✕の領域を単純に分割していますが、右側を見ると、○と✕が混在した領域では、きちんと中間的な確率になっているこ

    TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その2) - めもめも
  • 1