Apple announced a number of new features and updates onstage during its keynote address at its Worldwide Developer Conference (WWDC) this week, including updates to iOS, iPadOS, macOS, VisionOS, and…
Generative adversarial networks (GANs) can implicitly learn rich distributions over images, audio, and data which are hard to model with an explicit likelihood. We present a practical Bayesian formulation for unsupervised and semi-supervised learning with GANs. Within this framework, we use stochastic gradient Hamiltonian Monte Carlo to marginalize the weights of the generator and discriminator ne
2. 自己紹介 • 修士: 東大情報理工 • 博士: 京大情報学 • 現在: 科学技術振興機構(JST) 研究員 – 日中・中日機械翻訳実用化プロジェクト (2013-2017年度) • NLP若手の会2017年委員長 http://yans.anlp.jp • NLP2018大会プログラム委員 2 3. 目次 • NMTの基礎 – SMTとNMTとの比較 – Encoder-decoderモデル – Attention-based NMT – NMTの特徴と短所 • NMTの課題 – 扱える語彙数が少ない – 訳抜けと重複 – 何を学習しているのかわ からない • NMTのその他の話題 – 多言語翻訳 – Low/Zero-resource翻訳 – モデルの軽量化 – 特殊タグの埋め込み – RNN以外のNMTモデル • まとめ 3 4. 目次 • NMTの基礎 – SMTとNMTとの比
joisino.hatenablog.com ▲昔の記事 前回の試みから二年以上経ちましたがまだゆゆ式二期は発表されません。(*1) 二期が発表されないためこの記事のタイトルものんのんびよりさんから拝借することになりました。 やはり今話題のディープラーニングでなんとかするしかなさそうです。 三行で説明して Progressive Growing GAN (Tero Karras et. al. 2017) を chainer で実装して櫟井唯さん(ゆゆ式)の画像を生成しました。 こんな感じのができました。(下の方にスクロールするともっとたくさんあります。) github.com レポジトリです。 Progressive Growing GAN とは 浅いネットワークで小さい画像を生成・識別することからはじめ、段階的にネットワークと画像を大きくしていく手法です。太古に流行った AE の事前学
Learning useful representations without supervision remains a key challenge in machine learning. In this paper, we propose a simple yet powerful generative model that learns such discrete representations. Our model, the Vector Quantised-Variational AutoEncoder (VQ-VAE), differs from VAEs in two key ways: the encoder network outputs discrete, rather than continuous, codes; and the prior is learnt r
We describe a new training methodology for generative adversarial networks. The key idea is to grow both the generator and discriminator progressively: starting from a low resolution, we add new layers that model increasingly fine details as training progresses. This both speeds the training up and greatly stabilizes it, allowing us to produce images of unprecedented quality, e.g., CelebA images a
Although Generative Adversarial Networks (GANs) have shown remarkable success in various tasks, they still face challenges in generating high quality images. In this paper, we propose Stacked Generative Adversarial Networks (StackGAN) aiming at generating high-resolution photo-realistic images. First, we propose a two-stage generative adversarial network architecture, StackGAN-v1, for text-to-imag
We present graph attention networks (GATs), novel neural network architectures that operate on graph-structured data, leveraging masked self-attentional layers to address the shortcomings of prior methods based on graph convolutions or their approximations. By stacking layers in which nodes are able to attend over their neighborhoods' features, we enable (implicitly) specifying different weights t
Deep autoregressive models have shown state-of-the-art performance in density estimation for natural images on large-scale datasets such as ImageNet. However, such models require many thousands of gradient-based weight updates and unique image examples for training. Ideally, the models would rapidly learn visual concepts from only a handful of examples, similar to the manner in which humans learns
In spite of the recent success of neural machine translation (NMT) in standard benchmarks, the lack of large parallel corpora poses a major practical problem for many language pairs. There have been several proposals to alleviate this issue with, for instance, triangulation and semi-supervised learning techniques, but they still require a strong cross-lingual signal. In this work, we completely re
昨年「自分の声をキャラクターの声にリアルタイム変換するSFのような技術、リアチェンvoiceが楽器フェアに登場!」という記事で紹介した、クリムゾン・テクノロジーが名古屋大学・戸田智基教授〔元奈良先端科学技術大学院大学)の研究グループと共同で開発したリアチェンvoice。その後、テレビのニュース番組などでも取り上げられていたので、ご覧になったことがある方も多いと思います。そのデモを見たときには、非常に驚いた一方で、リアチェンvoiceはあくまでも業務用の機材であり、こんなものを一般ユーザーが使えるようになるのは遥か先のこと……と思い込んでいました。 ところが、それからちょうど1年が経過した本日、なんとリアチェンvoiceがというiPhone版のアプリとして登場し、しかも無料で入手できるようになったのです。標準で「くりむ蔵」というキャラクタの声に変換可能となっているほか、オプションとして声優の
ICCV 2017 ( http://iccv2017.thecvf.com/ )の参加速報を書きました。合計で約160ページあります。 この資料には下記の項目が含まれています。 ・DNNの概要(DNN以前の歴史や最近の動向) ・ICCV 2017での動向や気付き ・これから引用されそう(流行りそう)な論文 ・フォーカスすべき研究分野 ・今後の方針 ・論文まとめ(約90本あります) cvpaper.challengeはコンピュータビジョン分野の「今」を映す挑戦です。論文読破・まとめ・アイディア考案・議論・実装・論文執筆(・社会実装)に至るまで広く取り組み、あらゆる知識を共有します。 https://sites.google.com/site/cvpaperchallenge/Read less
The Chosen One: Consistent Characters in Text-to-Image Diffusion Models 16 November 2023 Recent advances in text-to-image generation models have unlocked vast potential for visual creativity. However, these models struggle with generation of consistent characters, a crucial aspect for … computer vision graphics learning JaxMARL: Multi-Agent RL Environments in JAX 16 November 2023 Benchmarks play a
2017/10/28 "第60回 データマイニング+WEB @東京( #TokyoWebmining 60th ) ー 機械学習 活用 祭り ー" を開催しました。 第60回 データマイニング+WEB @東京( #TokyoWebmining 60th ) ー 機械学習 活用 祭り ーEventbrite Google グループ 会場提供して下さった FreakOut さん、どうもありがとうございました。素敵なトークを提供してくれた講師メンバーに感謝します。多くの方々の参加を嬉しく思っています。 参加者ID・バックグラウンド一覧: 参加者セキココ:第60回 データマイニング+WEB @東京 セキココ (作成してくれた [Twitter:@komiya_atsushi] さんに感謝) 以下、全講師資料、関連資料、ツイートまとめです。 AGENDA: ■Opening Talk: O1.「デー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く