A new tool that blends your everyday work apps into one. It's the all-in-one workspace for you and your team
画像生成AI界は、今認識できないスピードで進化をし続けています。 DALL・E2公開、Midjourney公開、StableDiffusionがオープンソースで公開されて..進化の速度が上がり続けており、日々異常なスピードで変化しています。 "取り扱い注意"そんな中、毎日時間なくて全然情報追えない..!って人のために業界変化、新表現、思考、問題、技術を毎日あらゆるメディアを調べ、まとめています。 諸事情で投稿が少し遅れています。ごめんなさい。 なんとか戻します。 昨日までの投稿はこちら 開発Stable Diffusion 1.5v公開間近(?)以前2022/9/25に1.5vを公開することを示唆する投稿があったため待機しておりましたが、1.4vのとき同様少し遅れている様子です。(ちなみにWaifu Diffusionの次のバージョンも公開が遅れています)
Googleは9月30日、クラウドゲームサービス「Stadia」のサービスを終了すると発表した。加入者は、2023年1月18日までプレイ可能とのこと。 Stadiaは、Googleが提供するクラウドゲームサービスだ。サーバー側でゲームを実行し、ユーザーはGoogleのスマホPixelシリーズやchrome OSタブレット、Chromecast Ultraなどでストリーミングゲームプレイが可能。2019年11月に欧米14か国にてローンチし、大手メーカーのタイトルからインディーゲームまで幅広いゲームを提供してきた。 同サービスでは、YouTubeを通じた配信中にクリックひとつで視聴者がゲームに参加できる「Crowd Play」など、Googleならではの機能が特徴とされた。ただ、発表当初に約束した機能の提供が遅れたり、Stadia向けゲームを制作する内部スタジオを設立させるも、その後成果を見る
まずはじめに、前回の記事を読んでくださった皆様。 ありがとうございます。 初めてのnoteへの投稿でどのくらい読まれるか、読みにくくないかなどの不安もありましたが、想像以上の反応をいただけました。 今回はその第二弾の記事になります。 本来はimg2img編を書くつもりだったのですが、ちょっと他の用事をしている間にケモノ特化のモデルが登場していたので先にそちらを紹介します。 この記事では主にモデルを変えたときの出力結果を紹介していきます。 前回のようなPromptの内容についての詳しい解説はしません。 e621, explicit content, kawaii, bangs, black long hair, art by [[hokusai katsushika]], gil elvgren, norman rockwell, thomas kinkade, intricate deta
3つの要点 ✔️ NeRFとは新規視点の画像生成ネットワークである。 ✔️ NeRFの入力は、5次元(空間座標のx,y,zと視点のθ,φ)で、出力は体積密度(≒透明感)と放射輝度(≒RGBカラー)である。 ✔️ NeRFによって従来よりも複雑な形状を持つ対象物の新規視点画像を得ることに成功した。 NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis written by Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, Ren Ng (Submitted on 19 Mar 2020 (v1), last revised 3 Aug 2020 (this version,
Abstract Recent breakthroughs in text-to-image synthesis have been driven by diffusion models trained on billions of image-text pairs. Adapting this approach to 3D synthesis would require large-scale datasets of labeled 3D assets and efficient architectures for denoising 3D data, neither of which currently exist. In this work, we circumvent these limitations by using a pretrained 2D text-to-image
Make-A-Video is a state-of-the-art AI system that generates videos from text. Make-A-Video research builds on the recent progress made in text-to-image generation technology built to enable text-to-video generation. The system uses images with descriptions to learn what the world looks like and how it is often described. It also uses unlabeled videos to learn how the world moves. With this data, M
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く