タグ

ブックマーク / enakai00.hatenablog.com (2)

  • 「TensorFlow Tutorialの数学的背景」シリーズの目次 - めもめも

    TensorFlowを使って、実際にコードを動かしながら、DeepLearningの仕組みを段階的に学んでいきましょう。 目次 ・No.1 TensorFlow Tutorialの数学的背景 − MNIST For ML Beginners(その1) 平面上の2種類のデータをロジスティック回帰で直線的に分類するという、機械学習の基礎を説明します。 ・No.2 TensorFlow Tutorialの数学的背景 − MNIST For ML Beginners(その2) 線形多項分類器とソフトマックス関数で、3種類以上のデータを分類する方法を説明します。 ・No.3 TensorFlow Tutorialの数学的背景 − TensorFlow Mechanics 101(その1) No.1で説明した問題に対して、もっとも単純なニューラルネットワークを適用して、複雑な境界を持つ分類を実現します

    「TensorFlow Tutorialの数学的背景」シリーズの目次 - めもめも
  • TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その3) - めもめも

    何の話かというと enakai00.hatenablog.com 上記の記事では、「−」「|」「+」という記号をCNN(畳み込みニューラルネットワーク)で分類することに成功しました。これを、MNISTの手書き数字画像に適用するのが今回の記事です。 使用するネットワーク ここでは、2種類のネットワークを解説します。1つ目は、前回のネットワークを素直に拡張したものです。 前回の例では、2枚のフィルターと2個の特徴変数 で十分でしたが、ここではより複雑な図形を扱うためにフィルターを16枚に増やして、特徴変数も16個にしています。これで、約97%の正答率が達成できます。(トレーニングセットと分離した、テストセットに対する正答率です。) そして、Deep MNIST for Expertsの中では、さらに識別率を上げるために、次のようなネットワークを組んでいます。 ここまでくると、まさに「Deep

    TensorFlow Tutorialの数学的背景 − Deep MNIST for Experts(その3) - めもめも
  • 1