斬新すぎる〝アフヌン〟に7.3万人騒然 上にギョーザ、下はチャーハン...「確実にアルコール入る」「真似したい」と話題
斬新すぎる〝アフヌン〟に7.3万人騒然 上にギョーザ、下はチャーハン...「確実にアルコール入る」「真似したい」と話題
最近、AutoGPTが出て、目標を与えて回答を自律的に導き出すモデルが発表されました。それは、ターミナルで実施するようになっていましたが、今回のAgentGPTはグラフィカルです。今回参考にしたのは以下です。 さて、今回のコードです。 python -m venv venv venv/Scripts/activate git clone https://github.com/reworkd/AgentGPT.git npm install 次に、.env.exampleでOPENAI_API_KEYにOpenAIで取得したAPIキーを入力して、.envファイルにリネームしましょう。 # Deployment Environment: NODE_ENV=development # Next Auth config: # Generate a secret with `openssl rand
Stable Diffusionなどの事前学習済みモデルに対して、輪郭線や深度、画像の領域区分(セグメンテーション)情報などを追加して出力をサポートする技術が「ControlNet」です。このControlNetを使うことで、別途に読み込ませた画像に写っている線画や人の姿勢などを出力結果に強く反映させることが可能です。このControlNetを複数使用する「Multi ControlNet」で実写の映像を忠実にアニメ化したムービーが、オンライン掲示板のRedditで公開されました。 I transform real person dancing to animation using stable diffusion and multiControlNet : r/StableDiffusion https://www.reddit.com/r/StableDiffusion/comment
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く