サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
おみそ汁
mabonki0725.hatenablog.com
本来の異言語間の会話は、最初は同じ物を指して互いの言葉を言い合ったのが始まりで、互いの交流の中で細かいニュアンスまで理解する様になったのは想像に難くない。 今回の翻訳モデルは上記の過程を深層学習でモデル化したものである。従来の翻訳は構文解析や言語列の対応関係から行われてきたが、写真を媒介にした共通認識もとに言語を学び合うシステムで記号創発モデルでもある。対話を考慮しない言語モデルなんてずっと違和感があったが、やっと出現した感がある。 [1710.06922] Emergent Translation in Multi-Agent Communication 有難いことに説明の図は英語と日本語の例で示してある。(これは東大の中山研究室の論文を参照しているためと思われる) 構成としてはGANと同じ様な構成で英語→日本語 日本語→英語と①~④で循環しながら精緻化するモデルである。 ①では画像を一
arxivで月間2000本ぐらい投稿されるAI論文に圧倒されるが、Benny Britzには優良な深層学習や強化学習な論文をリストにしてもらい大変助かっている。Benny Britzが強化学習を否定的に書いている記事を紹介しているので興味をもったので読んでみた。 www.alexirpan.com この記事は論文ではなく口語調の英語で書かれているので、解釈に迷う所が多かったが著者の強化学習の仕事を通じて、様々な例を揚げて、この分野が平坦でなく数々の問題があり、この原因の追究している。さらに今後の進路まで言及していて、殆どサーベイ論文の様になっている。 (1)簡単な自律動作に数万回の試行が必要 もし綺麗に動作する動画があっても、これは血の滲む結果であって、自分のGoogleロボットチームの強化学習モデルの実績では30%以上は失敗すると述べている。強化学習について次の様な疑問を投げかけている。
本郷で行われた強化学習アーキテクト(2018/01/16)は千葉大学Dの石川翔太さんのベイズによる逆強化学習であった。 https://www.slideshare.net/ShotaIshikawa2/ss-86214928 最大エントロフィ法の逆強化学習を実装して見て納得できなかった事は、熟練者の方策変更を反映できない事であった。 その点ベイズでは熟練者のデータを分類して、その方策の移動を隠れ変数として反映できる可能性がある。 以下の文献に従って簡単な、ベイズによる強化学習を実装してみた。 https://www.aaai.org/Papers/IJCAI/2007/IJCAI07-416.pdf プログラム(python) としては下記のGitHubを参照しました。 https://github.com/erensezener/aima-based-irl 熟練者の選択確率をとすると
ランニング30分 英語:必ず途中で寝てしまう (1)引き続きOpenPoseの論文を読む。 https://arxiv.org/abs/1611.08050 この手の秀逸な論文を読むと学力・技術・発想の乖離に唖然としてしまう。 ・単純なCNNの画像処理でなく、もはやCNNの組合せで構成されている ・NP-Hardな組合せ問題を緩和解で解決している ・動画(10枚/秒)でかつ群集でもパターン認識を達成している ・市場的価値が高いものを一般的に使えるものとして公開している 単純な技術の組合・応用でもなく、もはや文化の異なりを意識してしまう 1980~1995は日本が世界をリードしたが、これは優秀で均質な人々の協業で精密で故障の少ない商品が可能だったからである。しかしこれらはネット上でマニュアル化され部品化されると殆どが流通商品となり、日本は競争力を失ったと考えられる。この間に多民族国家の米国
ランニングできず 英語:Move Starwars (1)DeepMindのハザビスが問題提起した、幼児が環境を急速に理解する謎についての論文を読む。 [1606.05579] Early Visual Concept Learning with Unsupervised Deep Learning 幼児は知識獲得前なので教師あり(ラベル付)モデルは使えず、非教師モデルとして生成モデルを扱っている。本論文では手書き文字の癖の認識で有名なKingmaのVAE(Varietional Auto Encoder)を使って実験している。 VAEモデル 幼児にはガウス分布の隠れ変数(位置、大きさ、回転)を成分別に獲得する能力があり、視覚的な訓練によって、隠れ変数を学習するとする理論である。 評価関数は以下でVAEモデルで解く。は隠れ変数 は視覚データ ここで は隠れ変数がガウシアンである依存度で=4
テニススクール90分 英語15分 Lesson28 Socherの論文で意味理解の精度を上げるなら、一般知識を組込む方がよいとあったので、20170508投稿の「Machine Learning with World Knowlege」を読み始める。機械学習の半教師学習による一部の知識から未知な知識の獲得モデルを拡張したものを提案しており興味深く読む。GANがそうだがこの論文には触れていない。一部の専門家の知識を報酬に転化する逆強化学習のモデルとも通じるものだ。ロボッテックスの知識が生きるかもしれない。 [1705.02908] Machine Learning with World Knowledge: The Position and Survey 最近のSocherの強化学習とRNNを統合した文章要約の論文も注目する。こちらは言語間の内積ベースの議論を展開しており未だ理解途中である。
ランニングできず 英語できず (1) 混合分布を隠れ変数とするVAEの論文を読む 「VAE with a VampPrior」[1705.07120v3] VAE with a VampPrior KingmaのVAE(Variational Auto encoder)は深層学習に始めて生成モデルを導入した画期的な業績となっています。従来の深層学習は教師付学習しかできませんでしたがVAEによって初めて非教師学習や半教師学習ができる様になりました。即ちデータから隠れた変数や因子を推定することができる様になりました。 VAEの特徴はデータから隠れ変数として多次元のガウス分布を推定していました。 下図はデータより多次元ガウス分布のの平均と分散を推定してます。 例えば下図の様に手書き文字から癖を見つけ、その癖で未知の手書き文字を書くことができました。 M先生によると人間の認識などは単純なので、多
テニス2時間 英語できず (1) Socherの自然言語の問合せをSQLに変換する論文を読む 「Seq2SQL: Generating Structured Queries from Natural Language using Reinforcement Learning」 https://einstein.ai/static/images/layouts/research/seq2sql/seq2sql.pdf 現在SNSで話題になっている自然言語の問合せをSQLに変換するモデルです。 翻訳モデルとしてseq2seqが有名でしたが、これはRNNで適当に人間が解釈できる言葉に変換していたに過ぎません。しかし本モデルは計算機を動かすSQL文の生成モデルなので曖昧性が許されません。 (1.1) 手法 そこで曖昧性を排除するために2つのモデルと知識ベースを導入して達成しています。 ・Augme
ランニングできず 英語できず (1) 人の名前で国籍や民族を分析したの論文を読む 「Nationality Classification Using Name Embeddings」 https://arxiv.org/abs/1708.07903v1 5700万のe-mailとtwitter分析して名前で国籍や民族が判明するか分析した論文です。 技術的には本論文の手法が精度を(0.58→0.80)を達成した意外に新しいものは無いですが、内容が敏感な問題を扱っているので話題に上っていると考えます。 手法(NamePrism)としては大量のemailにある姓名をfirstname secondname別にCBOW(Continuous Bag-of-word)やSG(Skip-Gram)でベクトル化しています。これらはWord2vecと同じ考えで文書内の同時に現れる頻度を基にベクトル化
ランニングできず 英語できず 深層強化学習のサーベイ論文を読む 「DeepLearning for Video Game Playing」https://arxiv.org/abs/1708.07902 最近までのPCゲームやテレビゲームを深層学習で解くAI技術について網羅的に解説した論文である。従って深層学習を使っても碁や将棋の様なボードゲームは対象外となっている。 下図の様な殆ど全ての深層強化学習を系統別かつ目的別に解説してあり大変な労作である。もし注目するモデルがあれば、この論文で検索すると以下のことが分る様になっている。 ・モデルの概要 ・モデルを発表した論文 ・考案した動機や対象としたゲーム ・モデル開発が可能なプラットホーム ・継承したモデルと発展先のモデル 下図の様に深層学習としては2013年の偉大なDQNから全てが始まっている。しかしこのDQN前にはSuttonのSarsa
ランニング30分 英語:できず (1) 本能的に学習するロボット実験の論文を読む 「Instrinstically Motivated Goal Exploaration Processes with Automatic Curriculum Learning」 https://arxiv.org/abs/1708.02190 今までの強化学習はゴール(目的)が明解であったが、この論文は繰返し過程で、様々なゴールを本能的に見つけだし、その観察や経路過程を記憶させ、徐々にあらゆるゴールを適応させて知識を拡大させるもので衝撃的な内容である。このモデルを少し長いがIMGEP(Intrinsically Motivated Goal exploration Process)本能的な動機による探査過程と云う。 この論文はフランス人によるもので米英に無い独特の本能的報酬やメタ強化学習と云う新たな概念が
David HaのWorldModelsをマルチタスク化できないかと思ってゼミで相談したところ、転移学習の記事の中に下記のネットワークの重ね合わせでマルチタスクを実現した論文を紹介された。 arxiv.org この論文にはDavid Haも共著として入っているので先進的な強化学習の論文と考えてよさそうである。 この論文の紹介サイトに転移学習とマルチタスクの区別が説明されているが、共に 既存の知識を使って後継の問題を効率的に解く は同じである。 転移学習の本来の定義は 既存の知識の構造を理解し、異なるドメインに適応する手法 しかし最近ではドメインに関わらず後継の問題を効率化する意味に拡大されて混乱する状態になっている。例えば画像診断の事前学習も転移学習とする事に意義を唱えても反論されてしまう。 一方マルチタスクは ソースとターゲットを区別せずに、複数のタスクを同時に学習 即ち転移学習は既存知
ランニングできず 英語30分 The Boune Leagacy (1) DeepMindの自然言語を理解するUNREALモデルの論文を読み、深い感動を覚える。 このモデルは自然言語理解に於ける2つの懸案事項を解決している。 ・計算機が言語を教える事を可能にした。 言語理解で正解すれば計算機がエージェントに報酬を与えることで、 数十万の繰り返し学習を可能にした。従来は人間が計算機に教えるしかなく、 試行回数の壁があった。 ・複雑な文章理解では、単純な文章学習を経ていけば可能になることを実証した DeepMindの証明したかったことは以上の3点である ・言語理解を解明するには、人間の環境に似た3要素の模擬環境が必要 ・動作できるエージェント ・エージェントが存在する3D環境 ・報酬と罰則 ・言語学習には相当な繰り返しが必要 ・複雑理解では適切な学習手順が必要
このページを最初にブックマークしてみませんか?
『mabonki0725の日記』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く