AIリップシンクにまた大きな波が訪れました。
AIリップシンクにまた大きな波が訪れました。
「NoLang」は「○○の解説動画を作って」と入力するだけで解説動画を作成できるウェブアプリです。新たに、画面端にキャラクターを2体配置して対話形式で物事を解説する「ゆっくり解説」形式の動画が作成可能になったので、実際に試してみました。 【🔥重大発表】🐬NoLang 2.0をリリースしました!! ついに、「ゆっくり解説」形式の動画生成や縦型ショート動画の作成が可能に! 他にも動画の長さ指定、プロンプトによるスタイル制御、画像生成AIなど新機能が目白押し。 圧倒的進化を遂げたNoLangを是非お試しください!https://t.co/WcRBvKLhP1 pic.twitter.com/JOFN8t45KK— マーベリック|生成AI@NoLang (@sayhi2ai_jp) July 7, 2024 ・目次 ◆1:NoLangのアカウント登録 ◆2:「ゆっくり解説」形式の動画を作る設定
Krita の AI Diffusion プラグイン、SD のインターフェースとしてかなり良い。話題の LCM によるライブペイントも便利だし、イラストレーションツールだからレイヤーや選択ツールが使えるのが強い。すでに SD でできたことだが、こんな感じの変換が素早く、気持ちよく行える。https://t.co/bUPOZrKs1n pic.twitter.com/0hn8iMHHms — Naoto Yokoyama (@builtinnya) November 18, 2023 これらを ControlNet8 で入力して AnimateDiff を使えば済むと考えていたが、甘かった。 動画生成 AI に期待しているのは、この2枚の画像の間のフレームを説得力のある形で補間することである。しかし、7秒という長さでは、例えば次の動画1のようになってしまう。 動画1. 図1と図2を使い、パラ
このサービスの有償プランに申し込んで使って、少しプロンプトのコツが掴めたので、お伝えしたいと思います。 ただ、自分が使った目的は映画などの映像制作ではなく、あくまでも静止画、それも人物を動かすことなのでご注意を。より具体的には、11年前に他界した妻の動く姿を見ることです。 ■フィルムカメラの写真を動かすまずやってみたのは、実際に撮った写真をDream Machineで動かすことです。 使った写真は、1978年から1987年にかけてフィルムカメラで撮影したもの。子供が生まれてビデオカメラ(ビデオ8mm)を買ったのが1987年なので、それまでは動いている映像がほとんどなかったのです。 例外として、学園祭の劇で主役を演じたものと、特捜最前線でエキストラをやったときのものは残っていますが。 多くの人にとって、1980年代以前の、動きのある映像は残っていないと思います(8mmフィルム愛好家がいる家庭
もう全部OpenAIでいいんじゃないかな はじめに 月間技術革新です。 ということで、昨日OpenAIから発表された新しい動画生成AI「Sora」が非常に話題となっていますね。 圧倒的な一貫性の保持と1分間に及ぶ長時間動画が生成可能という事で、現状の動画生成技術を圧倒的に凌駕する性能を持っているようです。 在野エンジニアの小手先テクニックなど一笑に付すような圧倒的性能を Soraの凄さは色んなエンジニアやインフルエンサーがたくさん語っているのでそちらを見てもらうとして、この記事ではSoraを構成する各技術について簡単に解説していければと思います。 Soraの技術構成 論文が公開されているわけではないですが、OpenAIが要素技術の解説ページを公開してくれているため、そのページを参考にしていきます。 原文を見たい方はこちらからどうぞ 全体構成 Soraは以下の技術要素で構成されているとのこと
筆者も話題になった直後から試そうとしていたのですが、自分ではうまくいかず悶々としていたところ、Memeplexでできるようになったので、そのインプレッションをお届けします。 AnimateDiffの基本的な動作は、静止画を作成できるAI作画モデルを使って、一貫性のある短いアニメーションGIFを生成するというもの。Stable Diffusion 1.5、2.0といった標準的なものだけでなく、その上にカスタム学習(ファインチューニング)したモデルにも対応できるというのが特徴です。同様の技術としては「Tune-A-Video」があったのですが、一貫性が乏しかったために使いどころがなかなか難しいものでした。 筆者は現在、MemeplexとStable Diffusion WebUI上に、妻の写真を学習させたAIモデル(Checkpoint)を作成して使っていて「異世界とりちゃん」という名の下に日
AIボイスチェンジャー「Seiren Voice」が高速化&システム要件緩和で声変換動画の制作が高速・快適に! 2023年6月2日(金)より、ドワンゴが開発した声変換ソフトウェアシリーズ「Seiren Voice(セイレンボイス)」の新しい音声ライブラリを販売開始しました。 Seiren Voiceの新しい音声ライブラリは、これまでのものよりも変換速度が上がり、要求スペックが下がり、お求めやすい価格になり、より動画制作に使いやすくなりました。 Seiren Voiceとは?「Seiren Voice」は、自分の声をキャラクターの声に変換する声変換ソフトウェアです。 変換品質を重視しており、リアルタイムな声変換ではなく、いったん録音した声を変換するため、生配信よりも動画制作用途に適しています。テキスト情報から音声合成を行うソフトでは指定が難しい「間の取り方」や「抑揚」などについて、声を入力と
「Stable Diffusion」を開発したAI企業のStability AIは米国時間5月11日、テキストをアニメーションに変換するツール「Stable Animation SDK」を発表した。開発者やアーティストがStable Diffusionモデルを使って、アニメーションを生成できるようにするものだ。 Stable Animation SDKでは、テキストのみ、テキストと初期画像、テキストと初期動画という3種類の入力から、動画を生成できる。 一部のユーザーは既に、生成したアニメーションをTwitterに投稿している。 here is my first try pic.twitter.com/aaFBF3VwFK — datajules (@j_vicente_go) May 12, 2023 「DALL・E」や「Bing Image Creator」とは異なり、このモデルはウェブ
マイクロソフト、「GitHub Copilot X」をVisual Studioに搭載したデモ動画を公開。コードを自然言語で解説、デバッグ、ユニットテストの生成など GitHubは先月、GTP-4をベースに「GitHub Copilot」の機能を大幅に強化した「GitHub Copilot X」を発表し、Visual Studio Codeのコードエディタ内でAIと対話しながらプログラミングが可能になる様子を公開しました。 参考:[速報]「GitHub Copilot X」発表、GPT-4ベースで大幅強化。AIにバグの調査依頼と修正案を指示、ドキュメントを学習し回答も そして先週、マイクロソフトは同社の統合開発環境であるVisual StudioでGitHub Copilot Xを用いてプログラミングを行うデモ動画「GitHub Copilot X in Visual Studio」を公開
A model for generating videos from text, with prompts that can change over time, and videos that can be as long as multiple minutes. Read Paper The water is magical Prompts used: A photorealistic teddy bear is swimming in the ocean at San Francisco The teddy bear goes under water The teddy bear keeps swimming under the water with colorful fishes A panda bear is swimming under water Chilling on the
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く