タグ

2018年4月9日のブックマーク (5件)

  • GAN(と強化学習との関係)

    This document discusses generative adversarial networks (GANs) and their relationship to reinforcement learning. It begins with an introduction to GANs, explaining how they can generate images without explicitly defining a probability distribution by using an adversarial training process. The second half discusses how GANs are related to actor-critic models and inverse reinforcement learning in re

    GAN(と強化学習との関係)
  • はじめてのGAN

    今回はGAN(Generative Adversarial Network)を解説していきます。 GANは“Deep Learning”というの著者でもあるIan Goodfellowが考案したモデルです。NIPS 2016でもGANのチュートリアルが行われるなど非常に注目を集めている分野で、次々に論文が出てきています。 また、QuoraのセッションでYann LeCunが、この10年の機械学習で最も面白いアイディアと述べていたりもします。 “The most interesting idea in the last 10 years in ML, in my opinion.” –Yann LeCun GANは聞いたことはあるけれどあまり追えてないという人向けに基礎から解説していきたいと思います。それでは順に見ていきましょう。 目次 基礎理論 DCGAN 実装 論文紹介 まとめ 基礎理

    はじめてのGAN
  • AIがAIを「だます」ことで賢く成長

    AIがAIを「だます」ことで賢く成長
  • 京都大学がビッグデータの新統計法則を発見、「べき則」の普遍性を解明

    京都大学の梅野健教授と新谷健修士課程学生は、世界中の様々なビッグデータに現れる「べき則」の普遍性を説明する新しい統計法則を発見した。この統計法則は「超一般化中心極限定理」と呼べるもので、データ上に普遍的に現れるという。これにより世界の様々な現象の統計モデルの構築が期待される。 今回の研究では、現実のデータを反映した、従来の統計則である極限定理では捉えることができない、異なるべき分布を個々に持つ独立な確率変数の和という統計モデルを定式化した。その上で、データの数Nを無限にする極限において、レビの安定分布に収束するという極限定理を導出した。 この極限定理は、統計学の基法則である中心極限定理をべき則に一般化した一般化中心極限定理を、さらに異なるべき則の和の極限に拡張したもので、「超一般化中心極限定理」と呼ぶことができる。より一般化された状況でも成立する極限定理としての統計学的な意義があるととも

    京都大学がビッグデータの新統計法則を発見、「べき則」の普遍性を解明
  • 無能にペナルティを課しても、無能は組織からなくならない。では、どうするか。

    いろいろな会社で仕事をしていると、「ケアレスミスをする人」「同じミスを繰り返す人」に結構な割合で遭遇する。 やれるのにやらない、わかっていてもできない、大事なことを忘れる、そのような行動を繰り返す彼らに付けられる名前は無慈悲そのものだ。 すなわち、「無能」である。 そして、世間は無能には極めて厳しい。 ハーバード大学公衆衛生学のアトゥール・ガワンデ氏は次のように表現する。 私たちは、そのような「無能」の失敗に対しては感情的になってしまいがちだ。 「無知」による失敗は許せる。何がベストなのかわかっていない場合は、懸命に頑張ってくれれば私たちは満足できる。 しかし、知識があるにもかかわらず、それが正しく活用されてないと聞くと、私たちは憤慨せずにはいられない。 氏の述べる通り、「知っているのにやらない」時や、「わかっていてミスをした」時には、組織はミスをした人物に非常に冷酷な仕打ちをする。 叱責

    無能にペナルティを課しても、無能は組織からなくならない。では、どうするか。