StyleGAN-T: Unlocking the Power of GANs for Fast Large-Scale Text-to-Image Synthesis TL;DR: GANs achieve state-of-the-art results in fast text-to-image synthesis. Text-to-image synthesis has recently seen significant progress thanks to large pre-trained language models, large-scale training data, and the introduction of scalable model families such as diffusion and autoregressive models. However,
いろいろ仕組み的にChatGPTというのはGoogle検索の代替以上の働きをするなぁと思っていたのだけど、それとは別にChatGPTによって検索が使い物にならなく未来が考えられるなぁと思った。 ChatGPTが検索よりもいいのは、そのものズバリな文書がなくても、その周辺から学んだ単語の関係をもとに、答えを構築してくれることです。 たとえば検索の場合は、日本語で書かれた文書が用意されていなければ、たとえ英語や中国語の文書があったとしても日本語での検索には引っかかりません。 けど、ChatGPTの場合は、英語や中国語の文書から学んだ単語の関係や、ほかの文書から学んだ英語と日本語の関係、日本語での単語の関係などから、日本語の回答を生成してくれます。 たとえばGluonという会社について日本語で説明してる記事はおそらくないと思うのですが、ちゃんと日本語で説明してくれます。本社はベルギーですが。。。
紙書籍をお届けします(PDFがついてきます) PDFのみ必要な場合は、こちらからPDF単体を購入できます 通常はご注文から2~3営業日で発送します。 年末年始や大型連休など、1週間から10日程度、配送のお休みをいただく場合があります。詳しくはお知らせをご覧ください。 そのプログラム、CPUの性能を引き出せますか? Takenobu Tani 著 312ページ A5判 ISBN:978-4-908686-16-0 2023年1月25日 第1版第1刷 本書の解説で利用するコード(著者によるGitHubリポジトリ) 正誤情報など ソフトウェアの価値は、ハードウェアで実行されることにより、現実のものになります。そのために不可欠なのがCPUです。したがってソフトウェアの価値は、CPUの性能、すなわち「できるだけ高速にソフトウェアを実行すること」にかかっているとも言えるでしょう。 現代のCPUの性能は
はじめに TL;DR 同人誌の執筆には Re:VIEW を用い、textlint や prh といったツールを導入した GitHub Actions による CI/CD で Lint や本のビルド、Discord への通知などを導入した GitHub Oriented Writing とは GitHub に執筆に関する情報を集約するという思想である 内容と対象読者 本記事では 2 つのテーマを扱います。 1 つ目に、本の執筆環境ではどのようなツールを導入し、 どのような役割があるのかをご紹介します。 2 つ目に、執筆フローで導入した GitHub Oriented Writing という考え方をご紹介します。 今回解説する内容を実際に技術書典 12 での執筆で導入した結果、 少ない時間でもある程度のクオリティを維持しながらタスク管理ができたと感じています。 ゆえに、この機会に備忘録として残
前回の記事では、Equivariant Neural Networksというデータの対称性に着目した深層学習の設計の新しいパラダイムについて概観した。 blog.tsurubee.tech 今回は、2016年に登場したEquivariant Neural Networksの先駆け的な存在であるGroup Equivariant Convolution Networksの論文を解説する。 目次 論文紹介 アブストラクト和訳 群論の予備知識 群の定義 群の具体例 1. 並進群(Translation group) 2. p4m群 準同型写像 群の作用 同変性 従来のCNNの同変性 Group equivariant Convolutional Neural Networks(G-CNNs) G-CNNsとは 群上の関数 G-convolution:群同変な畳み込み層 第1層目 第2層目以降 評
発表者 今泉 允聡(東京大学 大学院総合文化研究科 広域科学専攻 准教授) Johannes Schmidt-Hieber(University of Twente, Professor) 発表のポイント 深層学習が過学習を起こさない原理を、ニューラルネットワークがエネルギー曲面上で滞留する数学的理論を開発して説明した。 深層学習が大自由度にも関わらず過学習しない原理は長年の未解明点であり、これを説明する理論を開発した。 深層学習を効率的に制御するための理論の発展や、アルゴリズム開発・ネットワーク設計などへの工学的応用が期待される。 発表概要 東京大学大学院総合文化研究科の今泉允聡准教授、University of TwenteのJohannes Schmidt-Hieber教授による研究チームは、ニューラルネットワーク(注1)がエネルギー曲面上(注2)で"滞留"という現象を起こすことを数
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く