並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 28 件 / 28件

新着順 人気順

FramePackの検索結果1 - 28 件 / 28件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

FramePackに関するエントリは28件あります。 動画人工知能AI などが関連タグです。 人気エントリには 『天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中』などがあります。
  • 天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中

    sponsored ファーウェイの最新モデルから見えてくるそれぞれの魅力とは? スマートバンドとスマートウォッチ、どっちがいい? どっちを選ぶ? 最新モデルで考える sponsored MSIの23.6インチモニター「MAG 242C」をレビュー 物価高なのに性能アップで価格を下げるという、ありがたいゲーミングディスプレーを複数買いしたい sponsored CData Arcで基幹システムのデータをkintoneに取り出したら、業務が変わった 残業地獄終了 ERPとkintoneを連携させたら、見積もりも在庫管理も爆速に sponsored 基幹システムとkintoneとの連携、チャレンジしたらDXが見える 触れたら怖いERP なぜ重厚長大になってしまったのか? サイボウズとCDataが語る sponsored MSI「MAG B860M MORTAR WIFI」レビュー マイクロタワー

      天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中
    • 1分超えたいなら動画生成はローカルAIを選べ。6GB VRAMでも動くオープンソースAI「FramePack」の実力は本物か、試してみた(CloseBox) | テクノエッジ TechnoEdge

      本日2本目のAI記事。ControlNet、WebUI Forge、Fooocusなど、画像生成AIソフトに多大な貢献をしてきたlllyasvielさんが、動画生成AIの新しいオープンソースソフト「FramePack」を公開しました。NVIDIA GPU専用ですが、WindowsとLinuxですぐに使えます。6GB VRAMでも動作するとしています。 筆者は、AI仮想環境のPinokioを使い、RTX 4090を搭載したCore i 7マシンに1クリックインストールしましたが、非常に軽快に動きます。 Image to Videoで動かした場合、1秒当たり1分ちょっとの生成時間。これは爆速と言っていいでしょう。 デフォルトの設定で、Image to Video生成してみましたが、高速な上に、破綻は感じ取れません。 複数のフレームがまず画面右上に高速に表示されていきます。これが1秒分溜まると、

        1分超えたいなら動画生成はローカルAIを選べ。6GB VRAMでも動くオープンソースAI「FramePack」の実力は本物か、試してみた(CloseBox) | テクノエッジ TechnoEdge
      • とんでもない動画生成AI「FramePack」にコミュニティ産“叡智”拡張「FramePack-eichi」――現場はまだ燃えている

        sponsored 耐衝撃の雄、UAGは利便性も優秀! 物価高時代は「壊さない」が正解 絶対紹介したいMIL規格級頑丈モバイルバッテリーと折りたたみ3in1ワイヤレス充電器があります! sponsored 気鋭の映像制作企業 J2BのCEOが話す、AI時代のワークステーションの使い方 AIワークステーション “Lenovo ThinkStation”は「効率的で、しかも安い」価値創造の源泉 sponsored Windows 10サポート終了に備える最良のノートはコレだ! 日本HPの技術力が魅せる「HP EliteBook X G1a 14 AI PC」 sponsored 置き場所を選ばない小型サイズが魅力、家に届いたその日から役立つ「HP Elite Mini 805 G8 Desktop PC」に迫る! sponsored 毎回毎回同じ「課題」を作るのは面倒くさい! ならば効率化しよ

          とんでもない動画生成AI「FramePack」にコミュニティ産“叡智”拡張「FramePack-eichi」――現場はまだ燃えている
        • “イリヤ神”がまたやった 動画生成AI「FramePack」が革命的なワケ (1/4)

          動画作例で使用した本連載の作例キャラの「明日来子(あすきこ)」さん。Midjounery v7の新機能「Omni-Refernece」で作成 4月17日に登場した動画生成AIプログラム「FramePack(フレームパック)」が世界的に衝撃を与えています。PCローカル環境で動画AIを動かすには、少なくともビデオメモリー(VRAM)が12GBあるビデオカードを搭載していないと難しいというのが常識でした。ところが、VRAM 6GBでも安定的に動作させられるため、一気に動画AIの裾野を広げそうです。開発したのは、画像生成AI分野で「ControlNet」や、使いやすいツール「Fooocus」などを開発してきたことで知られる、スタンフォード大学に在籍中のIllyasviel(イリヤスフィール、以下イリヤ)さん。既存の方法論にまったく違ったアプローチでブレイクスルーを引き起こす、“イリヤ神”のアプロー

            “イリヤ神”がまたやった 動画生成AI「FramePack」が革命的なワケ (1/4)
          • オープンソース動画生成AIの新標準「FramePack」が順方向生成「F1」サポートし、叡智も即対応。もはや普段使いできますね(CloseBox) | テクノエッジ TechnoEdge

            高速で長時間の動画生成が可能なオープンソースAI「FramePack」。Image to Videoで入力した画像から逆方向に生成していく仕組みですが、これを順方向。つまり、他の多くの動画生成AIと同じやり方で生成するオプション「F1」がサポートされました。 Last Frame、動画の最後の画像を指定するオプションもありますし、拡張版であるFramePack-eichiでは中間フレームや最後のフレームを指定することもできますが、シンプルに通常の方向に長回しをしたい場合にはやはり本家が便利です。 1分など、長回ししていると、背景や服が変色したり、アーティファクト化したりしてしまいますが、そちらの方が先に来ると、いきなり変な色、ガビガビの背景と、不自然さを感じてしまうからです。 方法はシンプルで、通常版とは別のGradioファイルが用意されています。 すでにインストール済みであればアップデー

              オープンソース動画生成AIの新標準「FramePack」が順方向生成「F1」サポートし、叡智も即対応。もはや普段使いできますね(CloseBox) | テクノエッジ TechnoEdge
            • ローカル動画生成AIの革命児「FramePack」の使い方 (1/4)

              注目すべきは要求するGPUスペック(GPUメモリ容量)の低さだ。開発者の報告によれば、RTX 4090では1フレームあたり約1.5~2.5秒で生成できるのに対し、ノートPC向けGPUのRTX 3070TiやRTX 3060ではその4~8倍の時間がかかるということ。30秒の動画生成でRTX 4090でも約30分程度の処理時間が必要だという。 これが本当なら、わずか6GBのVRAMしか搭載していないノートPC級のGPUでも30fps・60秒(約1800フレーム)の動画を生成できることになる。従来の動画生成AIが抱えていた「重い・短い・不便」という三重苦を一気に解決し、画像生成の感覚で動画を作れるようになるかもしれない。 技術的には既存の動画AI「HunyuanVideo」を改良し、独自に「次の場面を予測する」技術を取り入れたもの。従来の動画生成AIは長い動画を作るほどメモリ消費が増え続けたが、

                ローカル動画生成AIの革命児「FramePack」の使い方 (1/4)
              • 天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中(アスキー) - Yahoo!ニュース

                「ControlNet」や「Stable Diffusion」のWebUIである「Fooocus」を作った天才エンジニア、イリヤスフィール氏(通称Illya)が2025年4月17日未明、GitHubで突如公開したローカル環境で動かす動画生成AI「FramePack」がAIオタク界隈を爆沸きさせている。 コードは数百行だが中身はテンセント製の動画生成AI「HunyuanVideo」を魔改造し、独自の「次フレーム詰め込み圧縮」ネットワークでVRAMが6GBしかないNVIDIA製GPU搭載のWindowsマシンでも30fpsの1分動画が生成可能な妖刀仕様。生成中のメモリー消費はほぼ横ばいで推論速度も線形、しかもCUDA OOM(GPUメモリーに大きすぎるデータが入った際に起こすエラー)回避スイッチ付きと、Text‑to‑Video界隈でコスパ最強候補とのもっぱらの噂だ。 ASCII.jp上で毎週

                  天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中(アスキー) - Yahoo!ニュース
                • GitHub - lllyasviel/FramePack: Lets make video diffusion practical!

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                    GitHub - lllyasviel/FramePack: Lets make video diffusion practical!
                  • 続・FramePack動画生成(Windows)|青猫

                    前回は手元のPython3.13で無理矢理インストールしたんですが、これだと各種高速化の仕組みが利用できないので、ちゃんと正規の手順でインストールしていきます。 ついでに、そういう高速化の対応も解説してみます。 インストールまずはGitHubのページに行って…… Windows用のワンクリック版パッケージがあるのでダウンロードしてきます。(昨日はまだ無かったよ!) 1.7GBくらいの圧縮ファイルです。ダウンロードした圧縮ファイルを解凍します。 (これにはGitやPythonのポータブル版が同梱されてるのでPythonのバージョンとか気にしなくてOKなのです) 解凍したら中にある「update.bat」を実行します。(gitの更新だけだからすぐ終わる) 次に「run.bat」を実行するとモデルのダウンロードが始まって、しばらく時間が経った後に起動されます。(2回目以降はそんなに時間かからない

                      続・FramePack動画生成(Windows)|青猫
                    • 驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox) | テクノエッジ TechnoEdge

                      動画生成AIで、今回は3つの大きなニュースがあります。そのうち2つは前回お伝えした驚異的なオープンソース動画生成AI「FramePack」に関すること。もう一つは中国製動画生成AI「Vidu」の日本進出です。 ■FramePack-eichiは「動画生成の次の課題」に対応してしまった前回は1分、2分と分単位での生成が可能になったFramePackの登場で、ストーリーボードやマルチフレームでのプロンプト処理が必要になるとだろうとの予想を書きました。 そうしたら、その翌日にはFramePackの拡張として、まさにそうした機能を備えたソフトが公開されたのです。 スタンフォード大学のlllyasvielさんによる本家FramePackは、アップロードした1枚の画像から後方に生成していくImage to Videoですが、これにもう1枚の画像をEnd Frameとして追加するブランチをnirvash

                        驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox) | テクノエッジ TechnoEdge
                      • FramePackがAI動画の長さ制限を取り払った。では次の課題は何か? 4分間のAI動画を自分のPCで一発生成して気づいたこと(CloseBox) | テクノエッジ TechnoEdge

                        筆者は自宅のWindowsマシンにインストールして以来、RTX 4090 GPUを酷使しながら生成し続けています。今回はその後のお話です。 ■FramePackで2分以上のAI動画を生成してみるGradioを使ったWeb UIでは、最大2分間の制限がありますが、実は設定を変えることでさらに長時間の一発生成が可能です。こちらも試してみました。 240秒、4分に設定して試したところ、5時間ちょっと……ではなく、12時間43分かかってしまいました。これは、Gradioの設定値をいじったせいなのか、単にマシンに別の負荷がかかっていたせいなのかは不明。 再度検証中ですが、やはり4分間(240秒)設定にすると、最初のフレーム生成の段階ですごく時間がかかっています。ただ、PCを再起動して試したら、そこまで時間はかかっていません。 さて、これだけの長さの動画でキャラクターの一貫性は保たれていたでしょうか?

                          FramePackがAI動画の長さ制限を取り払った。では次の課題は何か? 4分間のAI動画を自分のPCで一発生成して気づいたこと(CloseBox) | テクノエッジ TechnoEdge
                        • FramePack

                          Packing Input Frame Context in Next-Frame Prediction Models for Video Generation Lvmin Zhang Maneesh Agrawala Stanford University Diffuse thousands of frames at full fps-30 with 13B models using 6GB laptop GPU memory. Finetune 13B video model at batch size 64 on a single 8xA100/H100 node for personal/lab experiments. Personal RTX 4090 generates at speed 2.5 seconds/frame (unoptimized) or 1.5 secon

                          • GitHub - git-ai-code/FramePack-eichi

                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                              GitHub - git-ai-code/FramePack-eichi
                            • FramePackに動画を生成させまくる話 - Qiita

                              import os os.environ['HF_HOME'] = os.path.abspath(os.path.realpath(os.path.join(os.path.dirname(__file__), './hf_download'))) import torch import traceback import einops import numpy as np import argparse import math from PIL import Image from diffusers import AutoencoderKLHunyuanVideo from transformers import LlamaModel, CLIPTextModel, LlamaTokenizerFast, CLIPTokenizer from diffusers_helper.hunyu

                                FramePackに動画を生成させまくる話 - Qiita
                              • とんでもない動画生成AI「FramePack」がMacにフォーク──叡智の彼我、マカー勢にも着弾

                                動画生成AI界隈の話題泥棒「FramePack」に、ついにMac向けフォーク版が着弾。GitHubユーザー brandon929氏が公開したリポジトリはタイトル通り“for macOS and Apple Silicon”。READMEには「M1/M2は--fp32を付けろ」とだけ書かれた硬派仕様だが、これでCUDA亡者しか遊べなかった沼にM系チップ勢がダイブ可能となった。 早速Redditの検証スレで早耳ユーザーがM3 Ultra(192GBユニファイドメモリー)で回したところ、1フレーム2.5分前後(≈0.4 fps)と二度見必至の数値。RTX4090の素生成が1.5s/フレームなのでケタ違いに遅いが、Xでも「FramePackがMacで回った瞬間、魔法少女になれた気分」とテンション高めの投稿が散見され、マカー勢が“生成系鎖国”の開国を祝う祝賀ムードも醸成。今のところ「そもそもMacB

                                  とんでもない動画生成AI「FramePack」がMacにフォーク──叡智の彼我、マカー勢にも着弾
                                • 6GBのVRAMでも高品質な動画が生成できる「FramePack」

                                    6GBのVRAMでも高品質な動画が生成できる「FramePack」
                                  • ComfyUI技術指南書 Vol.1 | ComfyUIでFramePackを使ってみる|とーふのかけら

                                    今回もComfyUIに関して新しい章になります! 初心者ガイドの枠組みを超えて、ComfyUIを技術観点の習熟から応用していく記事になります。 一発目の応用術は、最近話題のFramePackを使ったComfyUI構築術になります。 基礎知識がないと比較的難しいので、是非ComfyUIの使い方をある程度覚えてから始めるのをお勧めします! FramePackとは、あのイリヤ氏が提唱している動画生成AIへのアプローチ方法です。 従来の動画生成AIでは「ドリフト」と呼ばれる現象が発生し、それが劣化の原因となっていました。 ドリフトとは、次点のフレームを生成するごとにエラーが蓄積し、次第にサンプリングが劣化していく現象のことで、動画生成AIの品質低下の原因となっていました。 これを抑制し、かつ低コストで長尺動画を生成する方法ということでイリヤ氏が提唱している技術が「FramePack」になります。

                                      ComfyUI技術指南書 Vol.1 | ComfyUIでFramePackを使ってみる|とーふのかけら
                                    • FramePack動画生成(Windows)|青猫

                                      はじめにまずFramePackとはなんぞやって話ですが、これはIllyasviel氏の作った動画生成の仕組みです。 次フレーム予測の独自ネットワークを使って動画生成する感じで、そこ以外は大体HunyuanVideoのものを流用してるぽい印象です。(中身の解説は他の人に任せますw) 入力コンテキストを一定の長さに圧縮するから、ビデオが長くなってもメモリの消費は増えないそうで、VRAM 6GBあれば動くぜってのがウリですね。 インストールうちのWindows環境(GeForce RTX3060 12GB)にインストールしてみます。 「すぐにワンクリック版を出すから明日見に来てね」……なんて言われたけど(まぁなんとかなる筈w) 「Python 3.10推奨だよ」……って言われたけど、手元のPythonは3.13なんだよなぁ(少し工夫が要るかもw) というわけで、まずはクローンして中に入ります。

                                        FramePack動画生成(Windows)|青猫
                                      • FramePackと中国の関係性およびセキュリティに関する調査【どこの国?危険性?リスク?】 - 社内SEゆうきの徒然日記

                                        ascii.jp news.yahoo.co.jp この生成AIは名前初耳。 叡智=エッチの隠語 PV狙い 何の前触れもなく出てきて、突然メディアに取り上げられた生成AIは セキュリティ的に問題のあることが多かったので、念のためこちらもAI検索で徹底調査しました。 不思議なことにどのニュースを見ても生産国についてはぼやかして言及ありません。 以上のことより徹底調査する必要があると感じました。 生産国の明記のないものは徹底調査するを習慣つけた方がよいと思います。 事実のみをコピペします。 判断は読んだ人にお任せします。 FramePackと中国の関係性およびセキュリティに関する調査 FramePackは最近注目を集めている革新的な動画生成AIですが、その中国との関連性やセキュリティ面について疑問を持たれる方も多いでしょう。このレポートでは、FramePackの中国との関係性およびセキュリティ

                                          FramePackと中国の関係性およびセキュリティに関する調査【どこの国?危険性?リスク?】 - 社内SEゆうきの徒然日記
                                        • 驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox)(テクノエッジ) - Yahoo!ニュース

                                            驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox)(テクノエッジ) - Yahoo!ニュース
                                          • 誰でも簡単に動画制作!FramePack-eichi(EasyWanVideo版)入門編

                                            はじめに 動画制作に挑戦したいけど、どこから始めればいいのかわからない…そんなあなたにピッタリなのが、FramePack-eichiです。これは、誰でも簡単に高品質な動画を制作できるツールで、特に初心者に優しいインターフェースを持っています。 EasyWanVideoでは、このFramePack-eichiを基にしたWebUI版を使えます。これから動画制作を始める人にとって、最適なスタート地点となるでしょう。 EasyWanVideoはWan2.1というFramePackとは別の動画生成モデルも使用できます。現状、ローカル動画生成AIにおいてこの2つが最強なので、私はEasyWanVideoのFramePack-eichiを使用しています。 準備するもの EasyWanVideoのインストール インストールのやり方は以下の記事をご覧ください。 アップデートにより内容が変わっている場合があり

                                            • FramePackとは?軽量動画生成AIモデルのGoogle Colabでの使い方を解説 | AI総合研究所

                                              では、なぜこんなことができるのか? ここからはFramePackの仕組みや開発背景について、もう少し詳しく解説していきます。 開発者と技術的背景 FramePackは、スタンフォード大学のLvmin Zhang氏とManeesh Agrawala教授によって開発されました。2025年4月に発表された研究成果であり、GitHub上でもコードが公開されています。 開発の目的は、「軽量かつ安定した動画生成を、誰もが扱える形にすること」です。 従来のAI動画生成モデルは、生成対象のフレーム数が多くなるほど負荷も増え、映像の品質が劣化する傾向にありました。FramePackはこの問題を、**“次に来るフレームを予測する”というアプローチ(Next-Frame Prediction)**と、圧縮されたコンテキスト管理により解決しています。 FramePackの特徴 次に、FramePackの主な技術的

                                              • Google Colab で FramePack を試す|npaka

                                                「Google Colab」で「FramePack」を試したのでまとめました。 【注意】「Google Colab Pro/Pro+」のA100で動作確認しています。 1. FramePack​「FramePack」は、ビデオを段階的に生成する次のフレームを予測するニューラル ネットワーク構造です。 2. Colabでの実行(1) FramePackのインストール。 !git clone https://github.com/lllyasviel/FramePack %cd FramePack !pip install -r requirements.txt(2) FramePackの実行。 !python demo_gradio.py --share(3) gradioの共有リンクが表示されるのでクリック。 (4) 画像とプロンプトを指定して、「Start Generation」をクリッ

                                                  Google Colab で FramePack を試す|npaka
                                                • GitHub - colinurbs/FramePack-Studio: Adding timestamped prompts and general quality of life features to FramePack https://discord.gg/MtuM7gFJ3V

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - colinurbs/FramePack-Studio: Adding timestamped prompts and general quality of life features to FramePack https://discord.gg/MtuM7gFJ3V
                                                  • Google Colab で FramePack-eichi を試す|npaka

                                                    「Google Colab」で「FramePack-eichi」を試したのでまとめました。 【注意】「Google Colab Pro/Pro+」のA100で動作確認しています。 1. FramePack-eichi​「FramePack-eichi」は、ローカル環境で動作する動画生成AI「FramePack」の拡張版です。 主な拡張機能は、次のとおりです。​ ・マルチキーフレーム対応 ​複数のキーフレーム画像を指定することで、より複雑なアニメーションが可能になります。 ・柔軟な動画長設定 ​1〜20秒の動画長をワンクリックで設定でき、短尺から長尺まで対応しています。 ・セクションごとのプロンプト設定 ​各セクションに個別のプロンプトを指定でき、細やかな表現が可能です。 ・Hunyuan LoRAの試験的サポート ​モデルのカスタマイズによる独自の表現が追加されています。 ・出力フォルダ管

                                                      Google Colab で FramePack-eichi を試す|npaka
                                                    • FramePackという動画生成UIを試してみた@Local-PC & Paperspace|shiba*2

                                                      lllyasviel/FramePack: Lets make video diffusion practical! 長らく沈黙していたlllyavielさんが新しいリポジトリを公開しています。Image to video形式の動画生成UIです。 リポジトリ内のスクリプトを見ると、「hunyuan.py」とあり、hunyuanモデルをベースにしたものの様です。 Will there be a release of the training version of WAN 1.3B or WAN 14B? · Issue #1 · lllyasviel/FramePack このIssueで、Hunyuanモデルを採用した理由について言及しています。 実際に使用しているのはHunyuanモデルを改良したもので、Clipvisionをsiglip-so400m-patch14-384にしたものとの

                                                        FramePackという動画生成UIを試してみた@Local-PC & Paperspace|shiba*2
                                                      • うさぎでもわかるComfyUI FramePackでAI動画生成 〜ControlNetを活用したカスタマイズ方法〜

                                                        うさぎでもわかるComfyUI FramePackでAI動画生成 〜ControlNetを活用したカスタマイズ方法〜 はじめに AI画像生成の進化は目覚ましく、静止画だけでなく動画生成も手軽にできるようになりました。その中でも2025年に登場した「FramePack」は、少ないVRAMでも長時間の動画生成を可能にする画期的な技術です。 「うさぎだけど、難しいAI技術はちょっと苦手なんだぴょん...」 大丈夫です!この記事では、ComfyUIというノードベースのインターフェースで、FramePackを使ったAI動画生成の方法を解説します。さらに、ControlNetを使ったカスタマイズで、よりコントロールされた動画生成方法も紹介します。 この記事を読むと以下のことがわかります: FramePackとは何か、そしてなぜ注目されているのか ComfyUIでFramePackを使うための準備と基本

                                                          うさぎでもわかるComfyUI FramePackでAI動画生成 〜ControlNetを活用したカスタマイズ方法〜
                                                        • “1分の生成映像でも破綻しにくくする”動画AI向け強化技術「FramePack」の原理、AIと人間の声を区別できるか600人以上で実験など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                          2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 この1週間の気になる生成AI技術・研究をいくつかピックアップして解説する「生成AIウィークリー」(第92回)では、ByteDanceが発表した2つのモデル、動画生成AI「Seaweed-7B」とGPT-4o超えという画像生成AI「Seedream 3.0」を取り上げます。 また、1分くらいの長い生成映像でも一貫性を保つように強化するAIツール「FramePack」をご紹介します。さらにAIと人間の声が区別できるかを実験した研究に注目します。 そして、生成AIウィークリーの中でも特に興味深いAI技術や研究にスポットライトを当てる「生成AIクローズアップ」では、さまざまな最先端AIモデルに「逆転裁判」をプレイさせて推理能力を調査した研究を単体記事で掘り

                                                            “1分の生成映像でも破綻しにくくする”動画AI向け強化技術「FramePack」の原理、AIと人間の声を区別できるか600人以上で実験など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                          1

                                                          新着記事