そういわれてもなあ。3年前、大井町駅で倒れた旅客がいて、現場に居合わせた数人の旅客で駅員呼ぶのと東消の救急車に引き渡すまでをやったけれど、「AED使用するときに要救護者の衣類を脱がせたのは誰だ」としつこく詰問してきたのはまさにその… https://t.co/1QCyUJ3emU
Metaが文章から動画を生成できるAI「Emu Video」と文章で指示して画像を編集できるAI「Emu Edit」を2023年11月16日(木)に発表しました。合わせて、両AIで生成できる動画や画像の例を集めたデモサイトも用意されています。 Emu Video and Emu Edit: Our latest generative AI research milestones https://ai.meta.com/blog/emu-text-to-video-generation-image-editing-research/ Emu Video | Meta https://emu-video.metademolab.com/ Emu Edit https://emu-edit.metademolab.com/ ◆Emu Video Emu Videoは文章(プロンプト)を元に4秒間
Metaが画像生成AI「Imagine」を無料で使えるウェブアプリ「Imagine With Meta AI」を公開しました。Imagine With Meta AIは無料で利用可能で、文章(プロンプト)を入力するだけで画像を4枚生成できるとのこと。すでに海外メディアが作例を公開しています。 What’s New Across Our AI Experiences | Meta https://about.fb.com/news/2023/12/meta-ai-updates/ Meta’s new AI image generator was trained on 1.1 billion Instagram and Facebook photos | Ars Technica https://arstechnica.com/information-technology/2023/12/m
米Metaは9月27日(現地時間)、年次イベント「Meta Connect」で、独自の画像生成モデル「Emu」とそれを採用する2つの画像関連ツールを発表した。 Emu(Expressive media universe) Emuは、イベントではExpressive media universeの略と紹介されたが、論文(PDF)では「Enhancing image generation Models Using photogenic needles in a haystack」(干し草の中のフォトジェニックな針を使って画像生成モデルを強化する)の略となっている。 11億件の画像とテキストのペアでトレーニグしたモデルを、数千枚のフォトジェニック(視覚的に魅力的、という意味)な高品質画像で微調整したもの。トレーニングのみの画像と比較して「成立率82.9%を達成」したという。 マーク・ザッカーバー
Metaは、9月に発表した独自の画像生成基盤モデル「Emu」に基づく2つのモデルを発表した。4秒のリアルな動画を生成できる「Emu Video」とプロンプトで画像を編集する「Emu Edit」だ。 米Metaは11月16日(現地時間)、拡散モデルに基づいてテキストから動画を生成するモデル「Emu Video」と、マルチタスク画像編集モデル「Emu Edit」を発表した。いずれも同社がMeta Connectで発表した独自の画像生成の基盤モデル「Emu」(Expressive Media Universe)に基づいて構築したものだ。 マーク・ザッカーバーグCEOは自身のFacebookへの投稿で、「これらのツールをFacebookやInstagramの動画や画像に統合しようとしている」と語った。 4秒間の動画を生成する「Emu Video」 Emu Videoは、まずテキストプロンプトで画像
True Super Game Boy emulation (using the SameBoy core by Lior Halphon) HD mode 7 graphics with optional supersampling (by DerKoun) Low-level emulation of all SNES coprocessors (DSP-n, ST-01n, Cx4) Multi-threaded PPU graphics renderer Speed mode settings which retain smooth audio output (50%, 75%, 100%, 150%, 200%) Built-in games database with thousands of game entries Built-in cheat code database
往年のCPUをPICひとつで動かす試みは、Z80のEMUZ80が思いのほかうまくいったから、引き続きMC68008のEMU68k8に着手。データシートを見る限り制御はMC68008のほうが簡単。タイミングの制約が緩く、PICをマイペースで動かせる。試作機は、EMUZ80からZ80を取り外し、ジャンパー線でブレボのMC68008へつないで、たちまち完成。 この種の制御は、PICが面倒な処理をする間、CPUをうまく待たせられるかどうかが成否のカギを握る。Z80を始めとするほとんどのCPUは限られた時間のうちに待ち信号を送らなければならない。そこへいくとMC68008は、何もしなければ待ちに入り、抜けていいときDTACKを送る仕組み。こういっちゃあナンだけど、楽勝だわ。 試作機でHELLO, WORLDが動き、やや不安定だったんだけど、えいやっとプリント基板を作った。いやちゃんと確認しなきゃダメ
Metaは2023年11月16日(米国時間)、9月開催の「Meta Connectカンファレンス」で発表した画像生成のための基盤モデル「Emu」(Expressive Media Universe)に基づく2つの研究成果を発表した。拡散モデルに基づいてテキストから動画を生成するモデル「Emu Video」と、マルチタスク画像編集モデル「Emu Edit」だ。 Emu Video:2ステップでテキストから動画を生成 Emu Videoは、まずテキストプロンプトから画像を生成し、次にテキストと生成された画像から動画を生成する。この2段階アプローチにより、高品質の動画生成モデルを効率的にトレーニングできる。毎秒16フレームで512×512ピクセルの4秒間の動画を生成することが可能だ。 関連記事 生成AI入門:議事録を答えるチャットAI(RAGアプリ)を作ってみよう【プログラミング不要】 生成系A
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く