タグ

rnnとcnnに関するmanabouのブックマーク (4)

  • AIは人を笑わせられるのか? ボケの自動生成を競う、お笑いAIバトルの舞台裏

    AIはボケで人を笑わせられるのか? 針原佳貴氏(以下、針原):みなさま、お待たせいたしました。アマゾン ウェブ サービス ジャパン、ソリューションアーキテクトの針原です。「電笑戦 ~AIは人を笑わせられるのか? 挑戦を支える技術AWS~」というセッションを始めてまいりたいと思います。 技術セッションでは、「電笑戦」の概要説明のあと、電笑戦のサンプルモデルを構築していただいた電通デジタル・石川さんより技術解説をしていただき、その後、電笑戦参加企業の3社から、これまでのモデル開発と戦に向けた意気込みを語っていただきます。 まず初めに、みなさんご存知でしょうか。『ボケて』は、株式会社オモロキが運営している国内最大級のお笑いメディアです。1枚の画像に対して一言ボケを投稿して、笑いをとります。 例えば、この画像を見てボケられるでしょうか。 「いなり寿司」。こちらが実際に『ボケて』に投稿されてい

    AIは人を笑わせられるのか? ボケの自動生成を競う、お笑いAIバトルの舞台裏
  • How I Taught A Machine To Take My Job

    A simple landscape created entirely by an ML algorithm, taught by me.In my last medium post, I discussed how we could use convolutional neural networks for gesture recognition in VR. I concluded that while it was really cool, drawing objects was sometimes more tedious that having a simple menu. So that got me thinking… What if I used neural networks to anticipate what objects I wanted to place? Th

    How I Taught A Machine To Take My Job
  • CNNを利用した自然言語処理技術まとめ(2017年1月) - 終末 A.I.

    年末に Language Modeling with Gated Convolutional Networks が一部界隈でバズったこともあり、CNNを用いた自然言語処理が注目を集め始めています。今年の後半あたりには、派生手法や関連手法が多く登場していくのではないかと思われます。 CNNはRNNに比べて並列処理に優れているため、処理速度が圧倒的に速いという利点がありますが、時系列データの処理に特化したRNNと比べると、特に言語モデルにおいては最終性能がやや劣っているという理解が一般的でした(テキストクラシフィケーションではタスクによってはCNNのほうが性能がいいものもありました)。 Gated Convolutional Networks では、Gated Linear Unit および Residual 層を利用し学習を効率化することにより、WikiText-103 のタスクで stat

    CNNを利用した自然言語処理技術まとめ(2017年1月) - 終末 A.I.
  • LSTMを超える期待の新星、QRNN - Qiita

    RNN「これってもしかして」 CNN「わたしたちのモデルが・・・」 「「入れ替わってる~~~!?」」 というわけでQRNN、QUASI-RECURRENT NEURAL NETWORKSとは、RNNの機構をCNNで「疑似的(QUASI)に」実装するというモデルです。これにより、既存のRNN(というかLSTM)が抱えていたいくつかの問題の解決を試みています。 元論文は以下となります。 QUASI-RECURRENT NEURAL NETWORKS 作者によるブログ 作者の方のブログにChainerのサンプルコードがあったので、それを元にTensorFlowで実装してみました。早く動かしたい!という方はこちらを見てみてください。 icoxfog417/tensorflow_qrnn (Starを頂ければ励みになります m(_ _)m) 記事では、この研究のモチベーションとそのアプローチについ

    LSTMを超える期待の新星、QRNN - Qiita
  • 1