[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
![[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent](https://cdn-ak-scissors.b.st-hatena.com/image/square/2f2f33cca068922eab045d09c5540a01ff9a48ad/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2F20171106dl2-171108033614-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
2018/11/20~21 人工知能学会 言語・音声理解と対話処理研究会(SLUD)第84回研究会 「第9回対話システムシンポジウム」 での招待講演資料です。概要は以下の通り。 コンピュータビジョン分野と自然言語処理分野それぞれで、深層学習がコモディティ化されたモジュールとして浸透し、お互いの参入障壁が緩和された。視覚や言語と言った単独のモダリティでの識別や生成の精度も同時に向上したため、Vision & Languageと呼ばれる融合分野の研究が盛んになっている。本講演では、中でも対話と視覚を融合させる試みについて概観する。前提として画像キャプション生成やビジュアル質問応答などの関連分野について触れた後、実際に対話と視覚を融合させる種々の研究について述べる。
Several recent papers have explored self-supervised learning methods for vision transformers (ViT). Key approaches include: 1. Masked prediction tasks that predict masked patches of the input image. 2. Contrastive learning using techniques like MoCo to learn representations by contrasting augmented views of the same image. 3. Self-distillation methods like DINO that distill a teacher ViT into a st
This document proposes a new technique called "Pixie Dust" that uses an acoustic potential field generated by phased arrays to levitate and animate small objects for graphical display and interaction. It summarizes the theory behind acoustic levitation using phased arrays, demonstrates the implementation of an acoustic potential field generator, and evaluates the workspace and speed capabilities.
2015/8/5 深層学習本読み会 Chapter 8 ボルツマンマシン (http://ml-professional.connpass.com/event/17756/) の発表資料ですRead less
This document discusses deep learning approaches to representation learning of word meanings. It introduces distributional semantic representations, which represent a word based on the frequencies of other words that co-occur with it in a corpus. It also introduces distributed semantic representations, which represent word meanings as low-dimensional dense vectors learned through neural network mo
Deep Learning の簡単な説明から実装、そしてChainer の使い方を紹介します。CUDA サポートについても簡単に解説します。 最新のインストール方法も含んでいます。Read less
こちらが改訂版なので,ダウンロードするならこちらで: http://www.kamishima.net/archive/scipy-overview.pdf 第15回情報科学技術フォーラム (FIT2016) での講演「科学技術計算関連Pythonパッケージの概要」の発表資料です. * 講演ページ: http://www.ipsj.or.jp/event/fit/fit2016/FIT2016program_web/data/html/event/event72.html * 小嵜 耕平さん資料「Python とデータ分析コンテストの実践」 https://speakerdeck.com/smly/python-todetafen-xi-kontesutofalseshi-jian * サンプルファイル: https://github.com/tkamishima/fit2016tutor
2014年8月26日の日本神経回路学会主催セミナー「Deep Learningが拓く世界」における発表スライドです。Deep Learningの主なフレームワークで共通する設計部分と、実験の仕方について説明しています。Read less
変分ベイズ法の説明。 最尤法との対比で説明した。また、EMアルゴリズムとの対応も述べられている。 職場の勉強会での資料です。
IBIS 2021 https://ibisml.org/ibis2021/ における最適輸送についてのチュートリアルスライドです。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-ru-men 最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く