タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

TensorFlowに関するNkznのブックマーク (3)

  • TensorFlowを使ったディープラーニングでタイタニックの生存予測

    世間的に人工知能というかディープラーニングがとても注目されていて、僕も色々読み漁ったり実際に動かしてみたりして勉強しています。 ディープラーニングの勉強を始めたのは4月とかだったのでもうその頃にはTensorFlowに関する情報も多く、皆さんが使っているなら、ということでライブラリはTensorFlowを使っています。 TensorFlowに関する情報だとやっぱり画像の分類に関するものがとても多いように感じます。機械学習させるときに今まで人間が行っていた特徴量抽出を、少なくとも画像の分野ではディープラーニングが自ら行えるようになったということ、画像はトピックとしてやってて面白いということが理由なのかなと理解していますが、画像以外も扱いたい!と思うようになりました。 (画像分類もmnist、cifer10、cifer10に独自のデータセットを利用する、さらにモデルを改良する、みたいなことも楽

  • 深層学習とTensorFlow入門

    This document summarizes recent research on applying self-attention mechanisms from Transformers to domains other than language, such as computer vision. It discusses models that use self-attention for images, including ViT, DeiT, and T2T, which apply Transformers to divided image patches. It also covers more general attention modules like the Perceiver that aims to be domain-agnostic. Finally, it

    深層学習とTensorFlow入門
  • TensorFlow Playground でわかるニューラルネットワーク

    この記事を読みニューラルネットワークに興味を持ち勉強を始めました。 ニューラルネットワークを目で見て直感的に理解できるのは素晴らしいですね。 半年以上も前の記事なのでコメントを読まれているか分かりませんが、お聞きしたいことがあります。 TensorFlow Playgroundの入力層のFeatureについて勉強をしているのですが、なぜ生の入力値(座標x,y)ではなく、Featureを間にかませているかその背景を教えていただきたいです。 というのも、MNISTのチュートリアル等では縦横28x28ピクセルの784個のアドレスのグレースケールの値を入力とし、入力層に784個のニューロンを並べている解説が 多く、TensorFlow Playgroundで行われているようなFeatureの選択がどこから出てきたものなのか分からないのです。 ちょっと宣伝のようになってしまいますが、自分の学習成果の

    TensorFlow Playground でわかるニューラルネットワーク
  • 1