サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。
![「今後はシミュレーションが重要に」PFN岡野原氏が話す深層学習の展望 | Ledge.ai](https://cdn-ak-scissors.b.st-hatena.com/image/square/8e363a93a8db0ba89a16191a5ed543023817d8c5/height=288;version=1;width=512/https%3A%2F%2Fstorage.googleapis.com%2Fledge-ai-prd-public-bucket%2Fmedia%2Fhpc_week_ml_7b65bb6fb4%2Fhpc_week_ml_7b65bb6fb4.jpeg)
Date: July 11, 2021 | Estimated Reading Time: 32 min | Author: Lilian Weng [Updated on 2021-09-19: Highly recommend this blog post on score-based generative modeling by Yang Song (author of several key papers in the references)]. [Updated on 2022-08-27: Added classifier-free guidance, GLIDE, unCLIP and Imagen. [Updated on 2022-08-31: Added latent diffusion model. [Updated on 2024-04-13: Added prog
人工知能学会は2018年6月5日、同学会が主催した画像認識コンペティション「JSAI Cup 2018」の結果を発表し、入賞者5人を表彰した。1位~5位の入賞者が実施したプレゼンテーションを通じ、深層学習(多層のニューラルネットを使った機械学習)で画像認識AIの精度を高める最新のテクニックを紹介しよう。 今回のコンペのテーマは「食材の分類」。食材の画像データから、タマネギ、きゅうりなど55種類の材料を分類する画像分類器を設計し、正解率の高さを競う。 「タマネギ」「きゅうり」などの正解ラベルが付与された学習用の画像データは1万1995枚、正解ラベルを付与していない評価用のテストデータは3937枚 主催者が提示した学習用の画像データは、協賛のクックパッドが提供した1カテゴリ約290枚×55カテゴリの1万5932枚である。コンペの開催期間は2018年1月22日~3月29日。応募者は121人で、う
最終更新日: 2019年7月10日 2017年10月、日本ディープラーニング協会(以下JDLA)の設立が発表されました。 ディープラーニングを中心とする技術による日本の産業競争力の向上を目指して設立されました。G検定やE資格などのイメージが強い方も多いでしょう。 日本ディープラーニング協会(JDLA)について詳しくは、この記事を参考にしてみてください。 日本ディープラーニング協会(JDLA) JDLAはいくつかの委員会に分かれて運営されています。検定事業は試験作成委員会が取りまとめており、他にもいくつかの委員会があります。 そして委員会の中で、ディープラーニングの産業活用を推し進めているのが、産業活用促進委員会です。言葉の通りディープラーニングを産業で活用していくために、さまざまな取り組みを進めています。 今回の記事は、普段はなかなか知ることができない産業活用促進委員会の活動について紹介し
東京大学、機械学習を用いて0.5秒後の人間の動きをリアルタイムに推定する体動予測システム「Computational Foresight」を論文にて発表 2017-11-17 東京大学 篠田・牧野研究室の研究者らは、機械学習を用いて0.5秒後の運動をリアルタイム推定する体動予測システム「Computational Foresight」を提案した論文を発表しました。 Computational Foresight: Forecasting Human Body Motion in Real-time for Reducing Delays in Interactive System 本稿では、Kinectを用いて人間の動きを測定し、ニューラルネットワークを用いて、リアルタイムに0.5秒後の人間の動きを推定し出力するシステムを提案します。 提案システムは、人体の動きをリアルタイムに推定するため
AlphaGo Zeroが自己学習のみで過去最強になったというニュースが出たのでその元論文を読み、要約をしました。 まず感想を述べると、過去数千年にわたって蓄積してきた知識をAIが数時間で発見することに対する気持ち良さがありました。人間などクソ食らえと思っておりますので、こう言うニュースはとてもスッキリします。そして人間の発見していない打ち筋の発見にも感動しました。これこそがAIの真髄だと信じています。人間が見えていないものをAIが見つける、僕もいつかそんなことをしてみたいと思いながら生きています。 あともう一つ重要だと思ったのは、とてもネットワーク構造および学習過程が簡素化されたことです。マシンパワーも過去に比べて非常に少なく済み、個人でもすぐに再現実験ができそうなくらいです。AIが強くなることと、構造および学習のsimplerが同時に達成できていることが本質的だと思います。 一応、下記
Word2Vecとは Word2Vecで演算処理する Word2Vecとニューラルネットワーク Word2Vecの仕組み CBoW Skip-gram Word2Vecを応用することができる分野 レコメンド 機械翻訳 Q&A・チャットボット 感情分析 Word2Vecの弱点 Word2Vecの派生系や類似ツール GloVe WordNet Doc2Vec fastText まとめ 参考 世界中のWebサイトの数は2014年に10億件を超えたようだ。そして、Facebookのユーザー数だけでも16億人を超えている。 そして、そのいずれもコンテンツの中身の大部分はテキストから成り立っていることだろう。 ということは、莫大に増大し続けるネット上のデータのほとんどはどこかの国の言葉だってことだ。世界中の人が毎日テキストデータを生成し続けたことはこれまでの歴史上無かったんじゃないだろうか。 もしそん
AI分野で競合するMicrosoftとFacebookが、開発フレームワーク間のスイッチングを可能にするためのオープンソースプロジェクト「Open Neural Network Exchange(ONNX)」でタッグを組んだ。Facebookの「Caffe2」と「PyTorch」、Microsoftの「Cognitive Toolkit(CNTK)」が対応する。 米Microsoftと米Facebookは9月7日(現地時間)、AI(人工知能)開発者がフレームワーク間のスイッチを簡単にできるようにするオープンソースプロジェクト「Open Neural Network Exchange(ONNX)」を公開したと発表した。GitHubで公開されてる。 ONNXは、あるAIフレームワークで構築した学習モデルを異なる機械学習システムに簡単に切り替えることを目的としており、Facebookの「Caff
ランニングできず 英語できず 深層強化学習のサーベイ論文を読む 「DeepLearning for Video Game Playing」https://arxiv.org/abs/1708.07902 最近までのPCゲームやテレビゲームを深層学習で解くAI技術について網羅的に解説した論文である。従って深層学習を使っても碁や将棋の様なボードゲームは対象外となっている。 下図の様な殆ど全ての深層強化学習を系統別かつ目的別に解説してあり大変な労作である。もし注目するモデルがあれば、この論文で検索すると以下のことが分る様になっている。 ・モデルの概要 ・モデルを発表した論文 ・考案した動機や対象としたゲーム ・モデル開発が可能なプラットホーム ・継承したモデルと発展先のモデル 下図の様に深層学習としては2013年の偉大なDQNから全てが始まっている。しかしこのDQN前にはSuttonのSarsa
このワークショップの目的は、AIが実用製品として普及していくときに議論しておくべき内容を明らかにしておくことです。たとえばAIが実用品に組み込まれる時、AIそのものの知的財産権については今のところどの国にも法律上の規定がありません。また、AIによって生成された生成物の著作権についても同様です。たとえば、AIが小説やマンガを書いたりした場合、その権利が誰に帰属するかは明らかにされていません。 日本は「AIの知的財産権」議論の先進国、法律も先駆的 この種の議論に関しては我が国は世界でも一番議論が進んでいる場所のひとつです。昨年も内閣の知的財産戦略本部ではAI生成物やAI創作物をどう扱うかといった議論(「新たな情報財検討委員会」として実施。報告書はこちら)や、学習済みAIになんらかの知的財産権を認めるかという議論が活発に行われていました。 改めて海外でこの議論を始めてみて思うのは、日本は人工知能
This series is available as a full-length e-book! Download here. Free for download, contributions appreciated (paypal.me/ml4h)RoadmapPart 1: Why Machine Learning Matters. The big picture of artificial intelligence and machine learning — past, present, and future. Part 2.1: Supervised Learning. Learning with an answer key. Introducing linear regression, loss functions, overfitting, and gradient des
「AI(人工知能)を活用してビジネスで成果をあげよう」という動きがますます高まってきました。 しかし一方で「AIを魔法の杖だと誤解した人たちが、ムチャな要望を出してくる」というようなボヤキも、またよく耳にする話です。 つまりAI関連の技術によって、何ができて何ができないのか?という点があいまいなままに、期待だけが先行しがちというのが大方の現状といえそうです。 そんな中でちょっと便利な図をみつけました(記事最上部。オリジナルをもとにAI4U編集部で作成)。 「AIによる7つの成果」(Seven spectrum of outcomes for AI)と題された図。その名の通り、AIによって解決できる成果、つまりユーザーニーズを7段階で整理しています。 「認知」や「通知」のように現時点の技術レベルで可能な段階もあれば、人の判断を手助けする「環境認知」といったまだ難しいレベルもあります。 AI事
AIシステム部の奥村(@pacocat)です。AIシステム部では、AI研究開発グループに所属しており、主に強化学習を用いたゲームAIの研究開発を行っています。 DeNAでは、様々な事業ドメインのデータを実際に使いながら機械学習を使ったサービス開発を推進しており、中でもゲームは豊富なデータ・シミュレーターがあるため、最先端のアルゴリズムを動かすための環境を自前で持っているのが特徴です。 全社的にも機械学習サービスのニーズが高まっている背景の中、7/5にGoogle様による機械学習系API勉強会が当社セミナールームにて開催されました。今回は、勉強会の内容をブログでレポートしたいと思います。 Googleといえば、先日開催されたGoogle I/O 2017でも"AI first"というメッセージが改めて強調されていましたが、実際にGoogle LensやGoogle Homeなど機械学習を活用
Recurrent Neural Networksとは何か RNNの応用事例 機械翻訳 音声認識 画像の概要生成 説明文からの画像生成 知っておくと便利なRNNの種類と進化 Simple RNN LSTM GRU Bi-directional RNN Attention RNN Quasi-Recurrent Neural Network TensorFlowによるRNNの実装 まとめ 参考文献 人間は、目の前で起きた出来事から、次に起こりそうな出来事を予測しながら文脈を読んで判断を下すことができます。例えば、車を運転している際に歩行者が飛び出しそうだと思えば、十分な間隔を置いて走行することが出来るでしょう。 また、現実世界は時間の制約を受ける事象はたくさんあります。アニメーションなどのストーリーでは、前回の文脈を前提として次の展開が進んでいきます。 Recurrent Neural Ne
本稿ではニューラルネットワーク,誤差逆伝播法,言語モデル,RNN,LSTM,ニューラル機械翻訳の一連の手法について数理的に解説する. 前編の目次 ニューラルネットワーク 順伝播 (Forwardpropagation) 逆伝播 (Backpropagation) リカレントニューラルネットワーク (RNN) Recurrent Neural Network Language Model (RNNLM) Backpropagation Through Time (BPTT) Long Short-Term Memory (LSTM) Gated Recurrent Unit (GRU) RNN のドロップアウトとバッチ正規化 ニューラル機械翻訳 (NMT) Sequence to Sequence (seq2seq) 注意 (Attention) 双方向エンコーダー・多層LSTM 評価手法
ロボットから自動運転車、はては囲碁・将棋といったゲームまで、昨今多くの「AI」が世間をにぎわせています。 その中のキーワードとして、「強化学習」というものがあります。そうした意味では、数ある機械学習の手法の中で最も注目されている(そして誇張されている・・・)手法ともいえるかもしれません。 今回はその強化学習という手法について、基礎から最近目覚ましい精度を出しているDeep Q-learning(いわゆるドキュン、DQNです)まで、その発展の流れと仕組みについて解説をしていきたいと思います。 本記事の内容をベースに、ハンズオンイベントを開催しました(PyConJPのTalkの増補改訂版) Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン 講義資料の方が図解が豊富なので、数式とかちょっと、という場合はこちらがおすすめです。 Tech-Circle #18 Pythonではじ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く