サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
ドラクエ3
deeplearning.jp
最先端の大規模言語モデル(LLM)の基礎理論から応用事例まで網羅的にマスターしよう! 生成AIの基盤モデルとして注目を集める大規模言語モデル(LLM)について体系的に学べる実践型講座。LLMの基本からスタートし、LLMの学習や推論を支える技術、公開されているLLMやAPIなどの活用方法まで幅広く学べます。 実践型のデータサイエンティスト育成講座およびDeep Learning講座を10年以上運営し、のべ30,000人以上の人材を育成してきた東京大学松尾・岩澤研究室がコンテンツを監修・開発しています。 本講座はサマースクールの一環として大規模言語モデル(Large Language Models/LLM)に関して体系的に学べる講座を目的として開催されます。 具体的には以下のスキルを身につける事を目的としています。 ・LLMの原理について,事前学習からRLHFまでの一連の流れや意味合いを理解す
Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language. お知らせ 3/20(月) 受講生の募集を開始しました。 4/4(火)受講生の募集を締め切りました。多数のご応募ありがとうございました。 ※東大院生については、履修登録期間内であればUTASから申し込み可能。 受講可否通知は、4/11までにメールで全員に連絡予定です。 東京大学の大学院生で履修登録を希望する方は、以下の1.2の両方を【必ず】おこなってください。 1. UTASからの履修登録 2. ページ下部
Deep Learningや最新の人工知能技術について学びませんか? Deep Learning技術の登場により、人工知能技術が飛躍的に向上し、ありとあらゆる産業と社会のあり方に大きな影響を与えています。これからの社会では、どんな産業でどんな業種に携わるとしても、人工知能技術の影響を受けることになるでしょう。Deep Learning JPでは、そのような人工知能技術が重要な役割を果たす社会の到来に備え、以下の活動を行っています。 Lectures 2015/10 2016/01 2016/04 2016/10 2017/01 2017/04 2017/10 2018/01 2018/04 2018/07 2018/10 2019/03 2019/04 2019/10 2020/04
本講座は、学生を対象とした、Deep Learningを用いた自然言語処理に特化した全3回・3週間のサマースクールです。東京大学Deep Learning基礎講座・応用講座を公開してきた松尾研究室が、松尾研究室発スタートアップである ELYZA(イライザ) による全面協力のもと提供するものです。実践的な演習を通して、効率的に学習を進め,手を動かしながら技術を深く理解し,幅広いトピックを網羅します。それによって、Deep Learningを用いた自然言語処理の研究のスタートラインに立てるレベルの知識・実装力の習得を目指します。分散表現・言語モデルから始まり、RNN・CNN・Attentionに触れ、現在の概観を学ぶことができます。
本講座は、Deep Learningを用いた強化学習に特化した全6回の講義です。東京大学でDeep Learning基礎講座を公開してきた松尾研究室が、深層学習の基礎を習得済みの学生を対象として開講するものです。 深層学習を用いた強化学習の研究・社会実装のスタートラインに立てるレベルの知識・実装力の習得を目指します。離散制御や連続値制御、モデルベース学習などの強化学習の基礎的なアルゴリズムから、sim2real、模倣学習、Control as Inference、世界モデル、まで深層強化学習の種々のトピックをカバーします。講義のみでなく、実践的な演習を通して、効率的に強化学習について手を動かしながら技術を深く理解します。
C.M.ビショップ他著「パターン認識と機械学習」の輪読資料の一覧を当サイトで公開しました。 詳細はこちらから
松尾・岩澤研究室主催の公開講座「大規模言語モデル 2024」を開講します. 受講を希望される方は下記ページを参考にしてください. 大規模言語モデル 2024 申込締切│ more
Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language. 講座概要 Deep Learning基礎講座は、今年で4年目を迎える松尾研究室主催の公開講座です。MLP・ニューラルネットワークの基礎から始まり、徐々にDeep Learningの核心的技術や最新トピックが学べる、プログラミング演習を主体とした実践的な内容となっています。「Practice makes perfect」の考えに基き、毎週の演習を通じての技術習得を目指します。演習では、ブラウザ上からGPUを利
参加条件: Deep Learning基礎講座修了か、もしくは同等レベルの知識を持つこと 基本的に毎週輪読会に参加できること 発表が割り当てられた場合,発表できること 参加方法: 下記のフォームをご記入下さい。(参加には基本紹介が必要となります。) https://docs.google.com/forms/d/e/1FAIpQLSfosRjTx_kFljDyVLjTKn_XLwCLWPOT6fOYUSwvINdUbuvfJw/viewform 輪読会の進め方: 2020年8月現在,会議は原則オンラインで行っています(コロナの影響).オフラインイベントの復活時期は未定です. 大枠:45分,小枠20分×2の合計3件です。 時間は質疑込みの時間です。 基本は最初は小枠の発表に割り当てます。その中の一部メンバーに大枠の担当を依頼させていただきます。(大枠で話したいという方、何か話したいテーマがあ
Deep Learningを活用または研究するには、論文の理解に加えて分野に特化した実装力が必要不可欠です。 DL Hacksでは、DeepLearningの実装力に焦点を当て、最新論文の実装やその他Tipsを共有する勉強会を毎週開催しております。 Github:DLHacks ブログ:DL Hacks
Goodfellow他著「Deep Learning」日本語翻訳版をオンライン公開しました。翻訳は,東京大学松尾研究室のメンバーが主体となって進めてきました。本書の製本版は後ほど発売予定ですが、少しでも良い翻訳本とするために、発売前にできるだけ多くの方に翻訳版を読んでいただき、ご意見やご指摘を反映させることを意図して、事前にオンライン公開することにしました。詳細はこちらから
Sorry, this entry is only available in Japanese. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language. 2017年度Deep Learning応用講座 Deep Learning技術の登場により、人工知能技術が飛躍的に向上し、ありとあらゆる産業と社会のあり方に大きな影響を与えています。これからの社会では、どんな産業でどんな業種に携わるとしても、人工知能技術の影響を受けることになるでしょう。先端人工知能論 IIでは、Deep Learningの基礎的な知識とモデルを構築する能力を持つ者を対象に、より実践的な研究
2017年度のハイライト 受け入れ受講者数の増加 秋には応用講座を開設予定 TensorFlowを中心とした新演習コンテンツ Attentionモデルなどの新しい内容の追加,NLPトピックの拡充(予定) 目次 (内容は調整中で、変更される可能性があります) Introduction 内容:Deep Learningとは/人工知能技術の歴史、社会への影響/講義全体像と注意事項/ 全員挨拶 日付:2017/4/11 Machine Learning 1 内容:Pythonと線形代数,行列・テンソル,数式と実装のブリッジ 日付:2017/4/18 Machine Learning 2 内容:k-NN, Logistic Regression, Softmax, train/dev/testデータセット,学習プロセス 日付:2017/4/25 Perceptron + Feed Forward N
DeepLearning.jpでは、知識の共有と最新研究動向の把握を目指して、各種の勉強会を開催しています。 2016年論文輪読会 06/24: TBA 06/17: TBA 06/10: Leveraging Visual Question Answering for Image-Caption Ranking Binarized Neural Networks: Training Neural Networks with Weights and Activations Constrained to +1 or =1 06/03: Convergent Learning: Do different neural networks learn the same representations? XNOR-Net: ImageNet Classification Using Binary
論文輪読 A review of unsupervised feature learning and deep learning for time-series modeling 那須野 薫 2015年4月16日 東京大学松尾研究室 紹介する論文について • タイトル: – A review of unsupervised feature learning and deep learning for time-series modeling – 時系列モデリングのための教師なし表現学習とディープラー ニングに関する調査 • 著者: – Martin L., Lars K., Amy L. – Örebro University in Sweden • 被引用回数:12 • 引用件数:135 • 公開年:2014 2015年4月16日東京大学松尾研究室 那須野薫
Difference Target Propagation Dong-Hyun Lee, Saizheng Zhang, Asja Fischer, Antoine Biard, & Yoshua Bengio 発表者 ̀鈴ྛ⽊ٲ雅⼤֒ 輪ྜྷ読@DL Hacks 本論ྔ⽂٘について ¤༊ 発表学会 ¤༊ ICLR2015 workshop ¤༊ Bengio先⽣ݑの最新研究? ¤༊ 誤差逆伝播って脳ではやってないから,もっと⽣ݑ物学的妥当性の⾼ভい⽅ٛ法 でやりましょうという論ྔ⽂٘. ¤༊ Target propagationとそれを改良ྗしたdifference target propagationを 提案. ¤༊ 初出はBengio先⽣ݑのテクニカルレポート(arXiv:1407.7906). ¤༊ 本当は”Toward Biologically Pl
Neural Conversational Model 15/09/18 野中 尚輝 Oriol Vinyals, Quoc V.Le 本論文について • 発表学会:ICML 2015 workshop • Googleのチーム ‒ Sequence to Sequence Learning with Neural Networks (同グループの先行研究) を応用 • 会話生成について調べていたので選んだ 15/09/18 2 Introduction • NNのEnd-to-end学習 ‒ 複雑な構造を、他の複雑な構造にマッピングする ことができる • 自然言語理解などで用いられる • 会話モデリングに応用 ‒ これまでの会話モデルはドメインを絞ることが 多かったが、今回はnoisyなドメインでも検証してい る 15/09/18 3 Related works • C
Variational Dropout and the Local Reparameterization Trick Diederik P.Kingma, Tim Salimans and Max Welling 発表者 鈴ྛ⽊ٲ雅⼤֒ 本論ྔ⽂٘について ¤༊ 発表学会不ྖ明 ¤༊ Submitted on 8 Jun 2015(arXiv) ¤༊ 7/17現在まだ書き終わってないっぽい(結構説明が抜けてたりする) ¤༊ 最近よく名前を聞く「変分オートエンコーダー」シリーズの新作 ¤༊ 要約すると「Dropout = local reparameterization trickだった!!」っ ていう論ྔ⽂٘ ¤༊ 当然ながら論ྔ⽂٘には図がほとんどありません! ¤༊ 抽象的な議論ྔなのでほとんど数式な上、難解 ¤༊ 今回は元となる確率ྖ 的勾配変分ベイズ(SGVB
Torch7やTheano、CaffeといったライブラリをGPU上で実行するために必要となるCUDA環境の構築について基本的な情報と、よくひっかかる点やその解決方法を示します。 注意:GPU環境構築は、環境(ハード構成等)によっては、Linuxの専門的な知識を要する場合があります。 Deep Learning研究において、GPUを利用した計算ができることはほぼ必須だと言っても過言ではありません。これは、GPUを使う場合と使わない場合では数倍から10倍程度、計算時間に差がでるためです。大量のデータを訓練データとして利用することが多いDeep Learningの研究においてこの差は致命的になることが多いです。 GPUの計算環境といっても、いくつかの実装があります。代表的なGPGPU用のライブラリとしては、OpenCLやCUDAが挙げられます。Torch7やPylearn2、Caffeといったメ
Semi-supervised Learning with Deep Generative Models Yusuke Iwasawa DL Hacks 輪読 2015.04.21 • NIPS2014(非引用:4) • 選定理由 • MNISTデータでStyle(筆跡みたいなもの)を学習している結果を見て • 人間行動でも同じこと大事なんじゃないかなーと • Semi-Supervised Learningというよりは、Deep Generative Modelsの方に興味 Summary • 変分AutoEncoder(ICML2014, ICLR2014)を半教師あり学習に有効に 利用するためのモデルを提案 • 3つのデータセットで定量評価(※(%f.2->%f.2)はエラー率の変化) • MNIST(8.10->3.33) • SVHN(66.55->36.02) • NORB
DEEP LEARNING (Yoshua Bengio、発刊予定) Reading List DEEPLEARNING.UNIVERSITY 実装 Chainer Keras scikit-neuralnetwork Pylearn2 Torch7 Caffe Deep Learning Tutorials Hinton’s Deep Autoencoder Dataset Labeled Faces in the Wild YouTube Faces DB ベンチマーク 画像認識ベンチマーク Deep Learning解説 Learning Deep Architectures for AI Ng’s Lecture Note: Sparse Autoencoder Why Does Unsupervised Pre-training Help Deep Learning? Unsup
次のページ
このページを最初にブックマークしてみませんか?
『Deep Learning JP』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く