並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 32 件 / 32件

新着順 人気順

framepackの検索結果1 - 32 件 / 32件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

framepackに関するエントリは32件あります。 人工知能AI動画 などが関連タグです。 人気エントリには 『天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中』などがあります。
  • 天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中

    sponsored 想像よりもはるかに小さい ウワサの“机に乗る”AIスパコン「NVIDIA DGX Spark」が、編集部に届きました。 sponsored JN-VC236Fをレビュー 約1.6万円の23.6型湾曲フルHDディスプレー、3000Rのゆる~いカーブはお買い得? sponsored FortiSASEがセキュリティ対策の「すき間」を埋める 危機はエッジから現れる 今こそ検討すべきVPNからSASEへの移行 sponsored MSI「MPG B860I EDGE TI WIFI」レビュー 知識と経験が問われるMini-ITXでのホワイトミニゲーミングPC自作。基板まで白いIntel B860搭載マザーボード選びの最適解が見つかった sponsored 日本マイクロソフトのハッカソン「GitHub Copilot Quest」をレポート レガシーアプリをGitHub Copi

      天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中
    • 1分超えたいなら動画生成はローカルAIを選べ。6GB VRAMでも動くオープンソースAI「FramePack」の実力は本物か、試してみた(CloseBox) | テクノエッジ TechnoEdge

      本日2本目のAI記事。ControlNet、WebUI Forge、Fooocusなど、画像生成AIソフトに多大な貢献をしてきたlllyasvielさんが、動画生成AIの新しいオープンソースソフト「FramePack」を公開しました。NVIDIA GPU専用ですが、WindowsとLinuxですぐに使えます。6GB VRAMでも動作するとしています。 筆者は、AI仮想環境のPinokioを使い、RTX 4090を搭載したCore i 7マシンに1クリックインストールしましたが、非常に軽快に動きます。 Image to Videoで動かした場合、1秒当たり1分ちょっとの生成時間。これは爆速と言っていいでしょう。 デフォルトの設定で、Image to Video生成してみましたが、高速な上に、破綻は感じ取れません。 複数のフレームがまず画面右上に高速に表示されていきます。これが1秒分溜まると、

        1分超えたいなら動画生成はローカルAIを選べ。6GB VRAMでも動くオープンソースAI「FramePack」の実力は本物か、試してみた(CloseBox) | テクノエッジ TechnoEdge
      • とんでもない動画生成AI「FramePack」にコミュニティ産“叡智”拡張「FramePack-eichi」――現場はまだ燃えている

        デジタル 「見える化」で終わらない産業IoT “攻めのIoT活用”実現への道のりとハードル sponsored STYLE-14FH131-U5-UCSXをレビュー 14型なのに1kg切り!Core Ultraシリーズ3と16:10液晶を搭載する軽量モバイルPC、性能も使い勝手もイイ感じ sponsored LEVEL-16WR172-U7-UKSXをレビュー GeForce RTX 5070 Ti&300Hz&2560×1600ドットでどこでも遊べる幸せ!ARC RaidersもEPIC画質で200fps超えのゲーミングPC sponsored 対面会議もTeams/Google MeetもZoomに集約。AIがすべての会話を「活きた情報資産」に変える AI議事録はもう「Zoom」1つでいい “やりっぱなしの会議”を次のアクションへ変える sponsored もっとも難しい課題「リーダー

          とんでもない動画生成AI「FramePack」にコミュニティ産“叡智”拡張「FramePack-eichi」――現場はまだ燃えている
        • “イリヤ神”がまたやった 動画生成AI「FramePack」が革命的なワケ (1/4)

          動画作例で使用した本連載の作例キャラの「明日来子(あすきこ)」さん。Midjounery v7の新機能「Omni-Refernece」で作成 4月17日に登場した動画生成AIプログラム「FramePack(フレームパック)」が世界的に衝撃を与えています。PCローカル環境で動画AIを動かすには、少なくともビデオメモリー(VRAM)が12GBあるビデオカードを搭載していないと難しいというのが常識でした。ところが、VRAM 6GBでも安定的に動作させられるため、一気に動画AIの裾野を広げそうです。開発したのは、画像生成AI分野で「ControlNet」や、使いやすいツール「Fooocus」などを開発してきたことで知られる、スタンフォード大学に在籍中のIllyasviel(イリヤスフィール、以下イリヤ)さん。既存の方法論にまったく違ったアプローチでブレイクスルーを引き起こす、“イリヤ神”のアプロー

            “イリヤ神”がまたやった 動画生成AI「FramePack」が革命的なワケ (1/4)
          • FramePackのLoRA配布場所|とりにく

            自分でも段々わからなくなってきたのでここにまとめます。 おすすめ推論環境Framepack_imgGEN ComfyUIでFramePackの1フレーム推論できるカスタムノードはこちら。 私が「暫定的に1フレーム推論カスタムノード作ったけど、ComfyUI公式レジストリへの登録とか、ComfyUI-Manegerのリストへの登録申請とかそういうのめんどくせぇ~!(カス)」とXで喚いていたら、神フォロワのさわらさん(@xhiroga)がサクッとリファクタした上で公開して下さりました。端的に言って神。 ComfyUIのFramePack高速化ComfyUI-FramePackWrapper_PlusOneの設定 ノードのjsonを読み込み、各カスタムノードを入れて、モデルをDLすれば推論できる環境になっておりますが、デフォルトのままだと各々の環境に最適化されていないので設定の変更箇所をば。 F

              FramePackのLoRA配布場所|とりにく
            • オープンソース動画生成AIの新標準「FramePack」が順方向生成「F1」サポートし、叡智も即対応。もはや普段使いできますね(CloseBox) | テクノエッジ TechnoEdge

              高速で長時間の動画生成が可能なオープンソースAI「FramePack」。Image to Videoで入力した画像から逆方向に生成していく仕組みですが、これを順方向。つまり、他の多くの動画生成AIと同じやり方で生成するオプション「F1」がサポートされました。 Last Frame、動画の最後の画像を指定するオプションもありますし、拡張版であるFramePack-eichiでは中間フレームや最後のフレームを指定することもできますが、シンプルに通常の方向に長回しをしたい場合にはやはり本家が便利です。 1分など、長回ししていると、背景や服が変色したり、アーティファクト化したりしてしまいますが、そちらの方が先に来ると、いきなり変な色、ガビガビの背景と、不自然さを感じてしまうからです。 方法はシンプルで、通常版とは別のGradioファイルが用意されています。 すでにインストール済みであればアップデー

                オープンソース動画生成AIの新標準「FramePack」が順方向生成「F1」サポートし、叡智も即対応。もはや普段使いできますね(CloseBox) | テクノエッジ TechnoEdge
              • ローカル動画生成AIの革命児「FramePack」の使い方 (1/4)

                注目すべきは要求するGPUスペック(GPUメモリ容量)の低さだ。開発者の報告によれば、RTX 4090では1フレームあたり約1.5~2.5秒で生成できるのに対し、ノートPC向けGPUのRTX 3070TiやRTX 3060ではその4~8倍の時間がかかるということ。30秒の動画生成でRTX 4090でも約30分程度の処理時間が必要だという。 これが本当なら、わずか6GBのVRAMしか搭載していないノートPC級のGPUでも30fps・60秒(約1800フレーム)の動画を生成できることになる。従来の動画生成AIが抱えていた「重い・短い・不便」という三重苦を一気に解決し、画像生成の感覚で動画を作れるようになるかもしれない。 技術的には既存の動画AI「HunyuanVideo」を改良し、独自に「次の場面を予測する」技術を取り入れたもの。従来の動画生成AIは長い動画を作るほどメモリ消費が増え続けたが、

                  ローカル動画生成AIの革命児「FramePack」の使い方 (1/4)
                • GitHub - lllyasviel/FramePack: Lets make video diffusion practical!

                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                    GitHub - lllyasviel/FramePack: Lets make video diffusion practical!
                  • 天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中(アスキー) - Yahoo!ニュース

                    「ControlNet」や「Stable Diffusion」のWebUIである「Fooocus」を作った天才エンジニア、イリヤスフィール氏(通称Illya)が2025年4月17日未明、GitHubで突如公開したローカル環境で動かす動画生成AI「FramePack」がAIオタク界隈を爆沸きさせている。 コードは数百行だが中身はテンセント製の動画生成AI「HunyuanVideo」を魔改造し、独自の「次フレーム詰め込み圧縮」ネットワークでVRAMが6GBしかないNVIDIA製GPU搭載のWindowsマシンでも30fpsの1分動画が生成可能な妖刀仕様。生成中のメモリー消費はほぼ横ばいで推論速度も線形、しかもCUDA OOM(GPUメモリーに大きすぎるデータが入った際に起こすエラー)回避スイッチ付きと、Text‑to‑Video界隈でコスパ最強候補とのもっぱらの噂だ。 ASCII.jp上で毎週

                      天才エンジニア・イリヤスフィール氏、突如ローカル環境で動かすとんでもない動画生成AI「FramePack」を投下し界隈が沸騰中(アスキー) - Yahoo!ニュース
                    • 驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox) | テクノエッジ TechnoEdge

                      動画生成AIで、今回は3つの大きなニュースがあります。そのうち2つは前回お伝えした驚異的なオープンソース動画生成AI「FramePack」に関すること。もう一つは中国製動画生成AI「Vidu」の日本進出です。 ■FramePack-eichiは「動画生成の次の課題」に対応してしまった前回は1分、2分と分単位での生成が可能になったFramePackの登場で、ストーリーボードやマルチフレームでのプロンプト処理が必要になるとだろうとの予想を書きました。 そうしたら、その翌日にはFramePackの拡張として、まさにそうした機能を備えたソフトが公開されたのです。 スタンフォード大学のlllyasvielさんによる本家FramePackは、アップロードした1枚の画像から後方に生成していくImage to Videoですが、これにもう1枚の画像をEnd Frameとして追加するブランチをnirvash

                        驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox) | テクノエッジ TechnoEdge
                      • 続・FramePack動画生成(Windows)|青猫

                        前回は手元のPython3.13で無理矢理インストールしたんですが、これだと各種高速化の仕組みが利用できないので、ちゃんと正規の手順でインストールしていきます。 ついでに、そういう高速化の対応も解説してみます。 インストールまずはGitHubのページに行って…… Windows用のワンクリック版パッケージがあるのでダウンロードしてきます。(昨日はまだ無かったよ!) 1.7GBくらいの圧縮ファイルです。ダウンロードした圧縮ファイルを解凍します。 (これにはGitやPythonのポータブル版が同梱されてるのでPythonのバージョンとか気にしなくてOKなのです) 解凍したら中にある「update.bat」を実行します。(gitの更新だけだからすぐ終わる) 次に「run.bat」を実行するとモデルのダウンロードが始まって、しばらく時間が経った後に起動されます。(2回目以降はそんなに時間かからない

                          続・FramePack動画生成(Windows)|青猫
                        • FramePackがAI動画の長さ制限を取り払った。では次の課題は何か? 4分間のAI動画を自分のPCで一発生成して気づいたこと(CloseBox) | テクノエッジ TechnoEdge

                          筆者は自宅のWindowsマシンにインストールして以来、RTX 4090 GPUを酷使しながら生成し続けています。今回はその後のお話です。 ■FramePackで2分以上のAI動画を生成してみるGradioを使ったWeb UIでは、最大2分間の制限がありますが、実は設定を変えることでさらに長時間の一発生成が可能です。こちらも試してみました。 240秒、4分に設定して試したところ、5時間ちょっと……ではなく、12時間43分かかってしまいました。これは、Gradioの設定値をいじったせいなのか、単にマシンに別の負荷がかかっていたせいなのかは不明。 再度検証中ですが、やはり4分間(240秒)設定にすると、最初のフレーム生成の段階ですごく時間がかかっています。ただ、PCを再起動して試したら、そこまで時間はかかっていません。 さて、これだけの長さの動画でキャラクターの一貫性は保たれていたでしょうか?

                            FramePackがAI動画の長さ制限を取り払った。では次の課題は何か? 4分間のAI動画を自分のPCで一発生成して気づいたこと(CloseBox) | テクノエッジ TechnoEdge
                          • FramePack

                            Frame Context Packing and Drift Prevention in Next-Frame-Prediction Video Diffusion Models Lvmin Zhang Shengqu Cai Muyang Li Gordon Wetzstein Maneesh Agrawala Stanford University, MIT Diffuse thousands of frames at full fps-30 with 13B models using 6GB laptop GPU memory. Finetune 13B video model at batch size 64 on a single 8xA100/H100 node for personal/lab experiments. Personal RTX 4090 generates

                            • 【FramePack】話題の動画生成AIで画像生成的なことをやってみた【eichi】|カズヤ弟@ゲーム実況&生成AI

                              (AIの話をしてますが本記事は100%人力でまごころこめて作られています) ■記事の対象ユーザ 1.VRAM10GB以上のWin環境でAI画像生成してる人 2.省VRAMで動く動画生成AI「FramePack」が気になる人 3.「FramePackで静止画編集が出来るらしい?」と聞いて飛んできた人 ようやく時間ができて触れるようになった■ようするに? 動画生成AI「FramePack-Eichi」を使って静止画を編集しちゃおうぜ! という記事です。 StableDiffusionだけでは難しかった ・衣装の着せ替え ・カメラの画角変更 ・衣装を維持したままのチビキャラ化 などがFramePackの1フレーム推論で出来るようになっています。 例えばこんな感じ。左の画像から右への着せ替え はじめにFramePackは、Stable DiffusionのWebUI Forgeを開発していたlll

                                【FramePack】話題の動画生成AIで画像生成的なことをやってみた【eichi】|カズヤ弟@ゲーム実況&生成AI
                              • とんでもない動画生成AI「FramePack」がMacにフォーク──叡智の彼我、マカー勢にも着弾

                                動画生成AI界隈の話題泥棒「FramePack」に、ついにMac向けフォーク版が着弾。GitHubユーザー brandon929氏が公開したリポジトリはタイトル通り“for macOS and Apple Silicon”。READMEには「M1/M2は--fp32を付けろ」とだけ書かれた硬派仕様だが、これでCUDA亡者しか遊べなかった沼にM系チップ勢がダイブ可能となった。 早速Redditの検証スレで早耳ユーザーがM3 Ultra(192GBユニファイドメモリー)で回したところ、1フレーム2.5分前後(≈0.4 fps)と二度見必至の数値。RTX4090の素生成が1.5s/フレームなのでケタ違いに遅いが、Xでも「FramePackがMacで回った瞬間、魔法少女になれた気分」とテンション高めの投稿が散見され、マカー勢が“生成系鎖国”の開国を祝う祝賀ムードも醸成。今のところ「そもそもMacB

                                  とんでもない動画生成AI「FramePack」がMacにフォーク──叡智の彼我、マカー勢にも着弾
                                • GitHub - git-ai-code/FramePack-eichi

                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                    GitHub - git-ai-code/FramePack-eichi
                                  • FramePackに動画を生成させまくる話 - Qiita

                                    import os os.environ['HF_HOME'] = os.path.abspath(os.path.realpath(os.path.join(os.path.dirname(__file__), './hf_download'))) import torch import traceback import einops import numpy as np import argparse import math from PIL import Image from diffusers import AutoencoderKLHunyuanVideo from transformers import LlamaModel, CLIPTextModel, LlamaTokenizerFast, CLIPTokenizer from diffusers_helper.hunyu

                                      FramePackに動画を生成させまくる話 - Qiita
                                    • FramePackの推論と1フレーム推論、kisekaeichi、1f-mcを何となく理解する|Kohya S.

                                      はじめにlllyasviel氏の開発した動画生成モデル・FramePackを活用した、「1フレーム推論」や「kisekaeichi」「1f-mc」などと呼ばれる画像編集技術がコミュニティ主導で開発されています。これらの技術はFramePackを変則的に利用することにより実現されています。 この記事では、ある程度すでに動画生成や画像生成のモデルを利用して推論や学習を行っている方に向けて、元のFramePackの推論方式、1フレーム推論やkisekaeichiの推論方式などについて簡単に解説します。 これらの推論時、学習時の各種パラメータについては不明な点が多いものの、FramePackの推論の仕組みを理解すれば役に立つはずです。理解の助けになれば幸いです。 なお私も完全に理解しているわけではないので誤り等が含まれるかもしれません。ご指摘いただければ幸いです。 技術寄りのドキュメントは以下にあ

                                        FramePackの推論と1フレーム推論、kisekaeichi、1f-mcを何となく理解する|Kohya S.
                                      • 6GBのVRAMでも高品質な動画が生成できる「FramePack」

                                          6GBのVRAMでも高品質な動画が生成できる「FramePack」
                                        • ComfyUI技術指南書 Vol.1 | ComfyUIでFramePackを使ってみる|とーふのかけら

                                          今回もComfyUIに関して新しい章になります! 初心者ガイドの枠組みを超えて、ComfyUIを技術観点の習熟から応用していく記事になります。 一発目の応用術は、最近話題のFramePackを使ったComfyUI構築術になります。 基礎知識がないと比較的難しいので、是非ComfyUIの使い方をある程度覚えてから始めるのをお勧めします! FramePackとは、あのイリヤ氏が提唱している動画生成AIへのアプローチ方法です。 従来の動画生成AIでは「ドリフト」と呼ばれる現象が発生し、それが劣化の原因となっていました。 ドリフトとは、次点のフレームを生成するごとにエラーが蓄積し、次第にサンプリングが劣化していく現象のことで、動画生成AIの品質低下の原因となっていました。 これを抑制し、かつ低コストで長尺動画を生成する方法ということでイリヤ氏が提唱している技術が「FramePack」になります。

                                            ComfyUI技術指南書 Vol.1 | ComfyUIでFramePackを使ってみる|とーふのかけら
                                          • FramePack動画生成(Windows)|青猫

                                            はじめにまずFramePackとはなんぞやって話ですが、これはIllyasviel氏の作った動画生成の仕組みです。 次フレーム予測の独自ネットワークを使って動画生成する感じで、そこ以外は大体HunyuanVideoのものを流用してるぽい印象です。(中身の解説は他の人に任せますw) 入力コンテキストを一定の長さに圧縮するから、ビデオが長くなってもメモリの消費は増えないそうで、VRAM 6GBあれば動くぜってのがウリですね。 インストールうちのWindows環境(GeForce RTX3060 12GB)にインストールしてみます。 「すぐにワンクリック版を出すから明日見に来てね」……なんて言われたけど(まぁなんとかなる筈w) 「Python 3.10推奨だよ」……って言われたけど、手元のPythonは3.13なんだよなぁ(少し工夫が要るかもw) というわけで、まずはクローンして中に入ります。

                                              FramePack動画生成(Windows)|青猫
                                            • 驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox)(テクノエッジ) - Yahoo!ニュース

                                                驚異のオープンソース動画生成AI「FramePack」がMacでも使える。Vidu Q1とFramePack叡智の合わせ技も試した(CloseBox)(テクノエッジ) - Yahoo!ニュース
                                              • うさぎでもわかるComfyUI FramePackでAI動画生成 〜ControlNetを活用したカスタマイズ方法〜

                                                うさぎでもわかるComfyUI FramePackでAI動画生成 〜ControlNetを活用したカスタマイズ方法〜 はじめに AI画像生成の進化は目覚ましく、静止画だけでなく動画生成も手軽にできるようになりました。その中でも2025年に登場した「FramePack」は、少ないVRAMでも長時間の動画生成を可能にする画期的な技術です。 「うさぎだけど、難しいAI技術はちょっと苦手なんだぴょん...」 大丈夫です!この記事では、ComfyUIというノードベースのインターフェースで、FramePackを使ったAI動画生成の方法を解説します。さらに、ControlNetを使ったカスタマイズで、よりコントロールされた動画生成方法も紹介します。 この記事を読むと以下のことがわかります: FramePackとは何か、そしてなぜ注目されているのか ComfyUIでFramePackを使うための準備と基本

                                                  うさぎでもわかるComfyUI FramePackでAI動画生成 〜ControlNetを活用したカスタマイズ方法〜
                                                • FramePackの進化版「FramePack-Studio」の導入から使い方まで完全解説! | EdgeHUB

                                                  FramePack-Studioは、動画生成AI「FramePack」から派生した拡張プロジェクトです。 FramePack-Studioには、LoRA機能やF1生成など、さまざまな機能が搭載されています。 この記事では、初心者にも分かりやすく、 FramePack-Studioの主な機能、導入方法、使い方を解説します。 国内最大級のオンライン展示会「ITトレンドEXPO2026 Spring」をご案内いたします。 1時間50円~使える、画像生成AIに最適「GPUSOROBAN」が出展予定です。 さらに、ITトレンドEXPOに参加登録をしていただいた先着1万名様にAmazonギフトカード500円分をもれなくプレゼントするキャンペーンがございます。 \特典詳細はこちらから!/

                                                    FramePackの進化版「FramePack-Studio」の導入から使い方まで完全解説! | EdgeHUB
                                                  • FramePackと中国の関係性およびセキュリティに関する調査【どこの国?危険性?リスク?】 - 社内SEゆうきの徒然日記

                                                    ascii.jp news.yahoo.co.jp この生成AIは名前初耳。 叡智=エッチの隠語 PV狙い 何の前触れもなく出てきて、突然メディアに取り上げられた生成AIは セキュリティ的に問題のあることが多かったので、念のためこちらもAI検索で徹底調査しました。 不思議なことにどのニュースを見ても生産国についてはぼやかして言及ありません。 以上のことより徹底調査する必要があると感じました。 生産国の明記のないものは徹底調査するを習慣つけた方がよいと思います。 事実のみをコピペします。 判断は読んだ人にお任せします。 FramePackと中国の関係性およびセキュリティに関する調査 FramePackは最近注目を集めている革新的な動画生成AIですが、その中国との関連性やセキュリティ面について疑問を持たれる方も多いでしょう。このレポートでは、FramePackの中国との関係性およびセキュリティ

                                                      FramePackと中国の関係性およびセキュリティに関する調査【どこの国?危険性?リスク?】 - 社内SEゆうきの徒然日記
                                                    • FramePackとは?インストール方法や使い方、eichiについて解説 | AI総合研究所

                                                      では、なぜこんなことができるのか? ここからはFramePackの仕組みや開発背景について、もう少し詳しく解説していきます。 開発者と技術的背景 FramePackは、スタンフォード大学のLvmin Zhang氏とManeesh Agrawala教授によって開発されました。2025年4月に発表された研究成果であり、GitHub上でもコードが公開されています。 開発の目的は、「軽量かつ安定した動画生成を、誰もが扱える形にすること」です。 従来のAI動画生成モデルは、生成対象のフレーム数が多くなるほど負荷も増え、映像の品質が劣化する傾向にありました。FramePackはこの問題を、**“次に来るフレームを予測する”というアプローチ(Next-Frame Prediction)**と、圧縮されたコンテキスト管理により解決しています。 FramePack‑eichiとは? FramePack‑ei

                                                      • Google Colab で FramePack を試す|npaka

                                                        「Google Colab」で「FramePack」を試したのでまとめました。 【注意】「Google Colab Pro/Pro+」のA100で動作確認しています。 1. FramePack​「FramePack」は、ビデオを段階的に生成する次のフレームを予測するニューラル ネットワーク構造です。 2. Colabでの実行(1) FramePackのインストール。 !git clone https://github.com/lllyasviel/FramePack %cd FramePack !pip install -r requirements.txt(2) FramePackの実行。 !python demo_gradio.py --share(3) gradioの共有リンクが表示されるのでクリック。 (4) 画像とプロンプトを指定して、「Start Generation」をクリッ

                                                          Google Colab で FramePack を試す|npaka
                                                        • GitHub - FP-Studio/framepack-studio: Expanding FramePack into a multifunction video creation tool

                                                          F1, Original and Video Extension Generations: Run all in a single queue End Frame Control for 'Original' Model: Provides greater control over generations Upscaling and Post-processing Timestamped Prompts: Define different prompts for specific time segments in your video Prompt Blending: Define the blending time between timestamped prompts LoRA Support: Works with most (all?) Hunyuan Video LoRAs Qu

                                                            GitHub - FP-Studio/framepack-studio: Expanding FramePack into a multifunction video creation tool
                                                          • Google Colab で FramePack-eichi を試す|npaka

                                                            「Google Colab」で「FramePack-eichi」を試したのでまとめました。 【注意】「Google Colab Pro/Pro+」のA100で動作確認しています。 1. FramePack-eichi​「FramePack-eichi」は、ローカル環境で動作する動画生成AI「FramePack」の拡張版です。 主な拡張機能は、次のとおりです。​ ・マルチキーフレーム対応 ​複数のキーフレーム画像を指定することで、より複雑なアニメーションが可能になります。 ・柔軟な動画長設定 ​1〜20秒の動画長をワンクリックで設定でき、短尺から長尺まで対応しています。 ・セクションごとのプロンプト設定 ​各セクションに個別のプロンプトを指定でき、細やかな表現が可能です。 ・Hunyuan LoRAの試験的サポート ​モデルのカスタマイズによる独自の表現が追加されています。 ・出力フォルダ管

                                                              Google Colab で FramePack-eichi を試す|npaka
                                                            • 風景イラストを読み込んで回転させる無料webアプリ『FramePack_rotate_landscape』公開!|とりにく

                                                              はじめに最近、FramePackが熱いので簡単なwebデモアプリを作りました! 風景イラスト(屋外より、部屋の中が効きが強いです)を入力すると45度位回転する1秒~3秒の動画を作れる簡単なアプリです。 回転の向きは今のところ制御できません! (2025/05/05追記:室内画像特化の制御できるバージョンも作りました)

                                                                風景イラストを読み込んで回転させる無料webアプリ『FramePack_rotate_landscape』公開!|とりにく
                                                              • musubi-tunerによるFramePack学習の私的ベストプラクティス集

                                                                FramePackを追加学習すると、画像・動画の生成時にテキストのプロンプトでは難しい指示を守らせることができます。たとえば、等速で360度回転する、のような指示が可能です。 FramePackのLoRA学習にあたっては、musubi-tunerを使うのが簡単です。とはいえ機械学習なので、どうしても試行錯誤があります。 ですが、設定次第で、「学習途中のLoRAの性能をリアルタイムで確認する」「学習率の変化の影響を可視化する」「学習後に自動でGPUインスタンスを落とす」などの工夫ができます。全て書いたので、参考にしてください! また、誤りや改善点があれば、記事に取り込みたいのでぜひコメントいただけると幸いです。 そもそもFramePackとは? FramePackは、Hunyuan(混元 = hùn yuán, フンユアン) Videoの動画生成モデルを用いた動画・画像生成フレームワークです

                                                                  musubi-tunerによるFramePack学習の私的ベストプラクティス集
                                                                • “1分の生成映像でも破綻しにくくする”動画AI向け強化技術「FramePack」の原理、AIと人間の声を区別できるか600人以上で実験など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

                                                                  2014年から先端テクノロジーの研究を論文単位で記事にして紹介しているWebメディアのSeamless(シームレス)を運営し、執筆しています。 この1週間の気になる生成AI技術・研究をいくつかピックアップして解説する「生成AIウィークリー」(第92回)では、ByteDanceが発表した2つのモデル、動画生成AI「Seaweed-7B」とGPT-4o超えという画像生成AI「Seedream 3.0」を取り上げます。 また、1分くらいの長い生成映像でも一貫性を保つように強化するAIツール「FramePack」をご紹介します。さらにAIと人間の声が区別できるかを実験した研究に注目します。 そして、生成AIウィークリーの中でも特に興味深いAI技術や研究にスポットライトを当てる「生成AIクローズアップ」では、さまざまな最先端AIモデルに「逆転裁判」をプレイさせて推理能力を調査した研究を単体記事で掘り

                                                                    “1分の生成映像でも破綻しにくくする”動画AI向け強化技術「FramePack」の原理、AIと人間の声を区別できるか600人以上で実験など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
                                                                  1

                                                                  新着記事