簡単にCSSアニメーションのコードを生成できるAIツールが登場しました。テキストや音声でプロンプトを入力するだけで、複雑なCSSアニメーションでも数秒でコードが生成されます。 生成されたCSSアニメーションはその場ですぐ...記事の続きを読む
![AIで簡単に実装コードを生成できる! テキストからCSSアニメーションのコードを生成できるツール -AI CSS Animations](https://cdn-ak-scissors.b.st-hatena.com/image/square/eab1cbc2c01911277cc37541e808c3bc333e9599/height=288;version=1;width=512/https%3A%2F%2Fcoliss.com%2Fwp-content%2Fuploads-202402%2F2024061501%402x.gif)
原画と原画の間にあたる画像を複数枚入れることで、自然な連続性のある動きを作る。アニメの基本となる「中割」作業を画像生成AIが実現する可能性が出てきました。鍵になっているのは「AnimateDiff」という技術。8月に入って、様々なユーザーのアップデートによって機能拡張が進められています。それは完全な画像生成AIで作られるアニメの可能性を垣間見せるほどのものです。 16コマ/2秒の短い動画が生成できる AnimateDiffは7月10日に発表された、上海AIラボ、香港中文大学、スタンフォード大学の共同研究による技術。画像生成AI「Stable Diffusion」の仕組みとデータセットを利用しつつ、数百万本の動画を学習させた「モーションモジュール」と呼ばれるデータセットを別途に参照させることで、連続するキャラクターの動きを生成可能にするというのが基本原理です。生成できる時間は、16コマ/2秒
画像生成AI「Stable Diffusion」の開発元であるStability AIが、3DCGソフトウェア「Blender」上で動作するAI搭載拡張機能「Stability For Blender」を公開しました。Stability For Blenderでは「Blenderで作成したラフ画像を元に好みの画像を生成」「テクスチャのラフ画像からリアルなテクスチャ生成」「アニメーションを生成」といったAI機能を無料で使えます。 Stability for Blender https://platform.stability.ai/docs/integrations/blender Stability AI Announces Stability For Blender; Text To Image Creation in 3D — Stability AI https://ja.stabi
Access Accepted第664回:リップシンクが日本語にも対応。声の質まで変わる次世代の音声技術とは ライター:奥谷海人 ゲームをよくプレイする人にとって,カットシーンでのキャラクターの「口パク」はおなじみのものだろう。最近のタイトルではこの「口パク」に向けたリップシンク技術の開発が進み,日本語を含め,さまざまな言語を自然に話すキャラクターが生まれつつある。今回は,そんな最新技術を,「サイバーパンク 2077」やUbisoft Entertainmentの最新タイトルなどに絡めてお伝えしたい。 日本語をナチュラルに話す海外ゲームのキャラクター カナダのトロントに拠点を置く3Dアニメーション用ミドルウェアのデベロッパ,JALI Researchが,2020年8月にオンラインで開催された「SIGGRAPH 2020」におけるプレゼンテーションの模様を,先頃YouTubeで公開した。「『
「Stable Diffusion」を開発したAI企業のStability AIは米国時間5月11日、テキストをアニメーションに変換するツール「Stable Animation SDK」を発表した。開発者やアーティストがStable Diffusionモデルを使って、アニメーションを生成できるようにするものだ。 Stable Animation SDKでは、テキストのみ、テキストと初期画像、テキストと初期動画という3種類の入力から、動画を生成できる。 一部のユーザーは既に、生成したアニメーションをTwitterに投稿している。 here is my first try pic.twitter.com/aaFBF3VwFK — datajules (@j_vicente_go) May 12, 2023 「DALL・E」や「Bing Image Creator」とは異なり、このモデルはウェブ
はじめに 前回までの解説で、ゲームの中のキャラクターの人工知能を「キャラクターAI」と呼び、第1回ではその基本となるエージェント・アーキテクチャを、第2回では特にエージェント・アーキテクチャの中から「認識」と「意思決定」モジュールについて解説しました。今回は前回に引き続きエージェント・アーキテクチャの「運動生成」モジュールについて解説します。 身体と知能の問題 キャラクターAIの特徴は「身体の運動と共に知能を考えなければならない」というところです。これはとても当たり前のことのように思えますが、世間で言う「人工知能」のほとんどは「問題を解くための人工知能」であり、「自分の身体」というものを持っていません。ところが、キャラクターAIとロボットだけは身体と共に知能を考えなければなりません。 しかし、キャラクターAIとロボットの身体運動の技術はかなり異なります。キャラクターAIの運動はモーション・
Animator(アニメーションシステム)とNavmesh(経路探索)を組み合わせてみます。具体的には止まったら静止モーション、移動中は走るモーションを使用します。 やり方 まず移動量でキャラクターのモーションを切り替えます。AnimatorはApply Root MotionでキャラクターのRoot座標を動かす事を想定していますが、今回の場合は移動量に従ってアニメーションを切り替える訳です。 なのでまずはApply Root Motionのチェックを外します。これでキャラクターの移動はNavmeshAgentもしくはスクリプトでしか動かなくなります。 次にアニメーション側の設定です。キャラクターの移動速度をAnimatorに伝えるためパラメータを設定します。 Speedの値でアニメーションを切り替えるようにします。今回は「静止」「歩行」「走行」の3種類のアニメーションをSpeedの値で切
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く