タグ

ブックマーク / ie110704.net (3)

  • TensorFlowでニューラルネットワーク、CNNを実装してみた

    もはや紹介する必要もないかもしれませんが、TensorFlowはGoogleで開発されている数値処理用のオープンソースライブラリです。 機械学習や深層学習などのAI分野を中心に活用が進んでいます。 TensorFlow: https://www.tensorflow.org/ 世界的に見れば、深層学習のライブラリにおいては、現時点で一番使われているライブラリかと思います。 テンソル(tensor)というTensorFlow特有のデータ構造を用意し、計算グラフを構築して、データを供給(flow)するといった流れをコーディングするイメージになります。 そのような性質から、ChainerやPyTorchなどのライブラリとはだいぶ異なる書き方をし、初学者は少し取っ付きづらいような印象があります。 TensorFlowによるニューラルネットワークの実装 他の例と同様に、アイリスのデータでニューラルネ

    TensorFlowでニューラルネットワーク、CNNを実装してみた
  • PyTorchでニューラルネットワーク、RNN、CNNを実装してみた

    今回は、PyTorchでニューラルネットワーク、再帰的ニューラルネットワーク、畳み込みニューラルネットワークの実装について記します。 以前にChainerの実装をまとめたときのものと同じタスクを実装してみて、比較しやすいようにしてみました。 PyTorch: http://pytorch.org/ PyTorchはFacebookが開発する深層学習に特化したライブラリです。 Pythonから実行できます。 インストールは公式ページを見るとわかりやすいと思いますが、OSや環境などをポチポチ選択していけばインストールコマンドが参照できますので、それを実行するだけです。 2017年始め頃に登場したばかりですが、瞬く間にTensorFlorやKerasに続く人気の深層学習ライブラリとなっているようです。(自分の周りでは使っている人がいないですが...) また、PyTorchは、Preferred

    PyTorchでニューラルネットワーク、RNN、CNNを実装してみた
  • Attention Seq2Seqで対話モデルを実装してみた

    最近は、深層学習の技術の発展によって、自然言語処理界隈でも深層学習を利用する例で賑わってきている印象です。 今回は上記書籍にも紹介されている、Attention Model + Sequence to Sequence Modelを使った対話モデルをChainerで実装してみました。 系列変換モデル(Sequence to Sequence Model) 自然言語処理の典型的の応用タスクとしては、機械翻訳、文章要約、対話、質問応答、文章分類などがあります。 これらのうち、文章から文章への変換とみなせるタスクを考えてみると、 機械翻訳 = 「翻訳元の言語の文章」から「翻訳先の言語の文章」への変換 対話 = 「相手の発言の文章」から「自分の発言の文章」への変換 質問応答 = 「質問の文章」から「応答の文章」への変換 とみなすことができます。 以上から、これらのタスクは系列から系列への変換を行う

    Attention Seq2Seqで対話モデルを実装してみた
  • 1