はじめに こんにちは。サイバーエージェントのゲーム事業部でUnityエンジニアをしている田村です。 Unityには、通称uGUIと呼ばれるUIシステムが備わっています。uGUIはUnity4.6から提供されている機能で、uGUIを利用することで外部ライブラリ等を使わなくても簡単に様々なUIを構築することができます。そのため、現在Unityで開発を行っているほとんど全ての方がuGUIを使ったことがあるかと思います。 uGUIによるUI開発の際、必ず必要となるコンポーネントがCanvasです。Canvasがアタッチされたゲームオブジェクトの配下にUIを配置していくことで、それらのUIが機能を発揮することになります。逆に、Canvasの配下ではない場所にUIを配置しても、描画もされないしユーザーの入力も受け付けません。 Canvasの役割の1つとして、描画順の制御があります。当然ながら、UI同士
Unity の StreamingAssets に置いたファイルを読み取る実装例です。 Android と WebGL は特別な処理が必要だそうで UnityWebRequest を使ってデータを読み取るようです。それ以外のプラットフォーム(iOS, Windows, デバッグ中のエディタ上)では普通にファイルに読み取って大丈夫だそうです。 Android はデータが apk/jar(zip) に圧縮されてるから特別な読み取りをしないといけないのですが何故か UnityWebRequest という名前のクラスで読み取れるのでそれを使用したいと思います。*1。WebRequest といいつつローカルにあるファイルを読み取る機能がある程度実装されているようです。ただ、何でもかんでも使えないのかな?なので、それぞれ向けに実装して両対応してみようと思います。 アプリ側からコールする API はプラ
はじめに 今回はNuGet importer for UnityというNuGetのパッケージをUnityへ導入できるようにするエディタ拡張を紹介したいと思います。 github.com 一応UnityでNuGetといえばNuGetForUnityが有名だと思いますが、バージョンの指定がうまくできなかったりエラーが解消できなかったりと(私としては)上手くいかないことが多く、最近はあまり利用していませんでした。 github.com 対してNuGet importer for UnityはNuGetForUnityに影響を受け一から作成した後発のパッケージで、ドキュメントの説明にもかなり自信を感じます。 NuGet importer for Unity は高速で使いやすく、非常に強力に NuGet のパッケージを Unity へ導入できるようにするエディタ拡張です。 また、ネイティブプラグイン
2024年3月13日追記 ・OpneAIのAPI課金システム変更に伴うエラーについて解説。 10月26日追記 ・メールが届かなくなった際に権限の再承認が必要な件。 5月11日追記 ・検索にかかった論文に抄録がない場合、AIが要約を創造(捏造)する件。 4月21日追記 ・作り方のサイトではなく公開されたLINE Botのリンクに切り替え。 ・エラ−429が出た場合4のスライドを追加。 4月10日追記 ・送信トリガーの変更方法のスライドを追加。 ・複数キーワードや雑誌を指定して検索する方法のスライドを追加。 デモコードは、 const PUBMED_QUERY = '(aaa) AND (bbb) AND (("ccc"[Journal]) OR ("ddd"[Journal]))' ・エラー原因をChatGPTに聞くコツについても追記。 4月6日追記 ・エラー429が出た場合の対処法スライド
ゲームやTRPGの立ち絵など、背景を透過した状態でキャラクターイラストを使いたいシーンはかなり多いかと思います。また、img2imgの「Inpaintアップロード」でもお役立ち。 外部での背景透過の手段はいくつかありますが、UI拡張機能として登場! AUTOMATIC1111/stable-diffusion-webui-rembg 「rembg」インストール方法 拡張機能リスト>読込>「rembg」を見つけて、右端にある「install」ボタンを押す。 ※下記画面はインストール後のもの 「rembg」の使い方 使う場所は「その他(Extras)」タブです。使い方はとてもシンプル。 まずは背景除去したいイラストを用意 くらつひわ モデルは自分で線画を描いてAI着彩したカメラおじさん! 背景はAIが素晴らしく仕上げてくれました うちのブログで可愛い美少女が登場する率は低いのですまない 使用モ
目次ワークフロー手元の画像と似た画像を生成したい補正線の太さの補正顔の補正手の補正腰の補正脚の補正書き込み量便利なツール差分生成の実例どのツールを選ぶかStable Diffusion のモデルリンクモデルマージStable Diffusion の解説Guidance Scale (CFG)サンプラーの比較シードDenoising StrengthバッチカウントとバッチサイズGPU の種類と画像生成時間Tips上手く描けない場合はアスペクト比を変えてみる頭や脚がフレームアウトする解像度を上げると頭や体が複数融合するDenoising Strength を下げると画質が落ちる細部の修正手の修正手の自由度高解像度化色のコントロールディティールが欲しいとき ファインチューニングプロンプトプロンプトの探し方外部のプロンプトリンクツールプロンプトの語順プロンプトのウェイトネガティブプロンプトで画力を
2023年1月現在Stable Diffusionで美少女イラスト生成に使えるモデルを紹介します。 基本的に学習モデルの収集はここから行っています。 Models - Hugging FaceWe’re on a journey to advance and democratize artificial intelligence through open source and open science.huggingface.co hugging face AI版Github。5gbくらいある学習モデルも数分でダウンロードできるサーバーに、一部モデルのDEMOサイト用のGPUを提供している。これがなぜ無料で使えるのかわからないが、噂によるとAI業界のGithubという触れ込みで各企業からお金を集めているらしい。 ソート欄からLikeが多い順に並べ替えてください。 ここで紹介しているものはS
こんにちは、やまだたいし( やまだ たいし (@OrotiYamatano) / Twitter )です。 私はゲーム業界にいるわけですが、面倒くさい作業は結構な割合で企画職がやってくれます。 私が前にシステムエンジニアをしていた時は結構な割合で自動化ツールが豊富にありました。 しかし、現在はソコまで自動化ツールは見当たりません。企画職である方々には何が自動化出来るのか判別出来ないのと、 プログラマーがソコまで気が回っていないからだと思いました。 なので、そういったツールを民主化させる第一歩としてRPAツールを作る方法を共有できれば良いなと思い今回作ってみることにしました。 目次 既存RPAもどきツールについて 環境 参考記事 今回自動化する流れ Spreadsheetでセリフを管理 GASによりJson形式でセリフを吐き出し Pythonを使いVoicepeakに取り込み 自動化の仕組み
OpenSRSでは、いくつかのDNSの修正を行うことで、SPFレコードに含めることを推奨しています。これにより、スパムを最小限に抑え、OpenSRS経由で送信するメールの認証に失敗するのを防ぐことができます。 OpenSRSのSPFレコードを作成する OpenSRSが提供するメールサービスは、2つのクラスタに分類されています。OpenSRSは "include "メカニズムを使用しており、これらのクラスターに属している場合は、SPFレコードに組み込む必要があります。 クラスターA、Bの場合 include:_spf.hostedemail.comを含む。 ホスティング登録をしていて、OpenSRSから送信される送信メールに関連する通知を、リセラーに代わって登録者に送信したい場合、以下の仕組みを組み込む必要があります。 include:registrarmail.net クラスタAとクラスタ
こんにちは!金融ソリューション事業部の山下です。 本記事では、画像生成AIのStableDiffusionとデプスマップ推定AIのBoostingMonocularDepthを用いて、上記のように板を押し出し加工したような(擬似)3Dモデル生成方法を紹介します。 3DのモデリングおよびレンダリングはHoudiniを使用します。 実施環境/ツール 実施手順 1. Stable Diffusion web UIのインストール 2. tex2imgで画像生成 3. BoostingMonocularDepthでデプスマップ生成 4. 生成画像をデプスマップを用いて3D化 完成イメージ 所感 参考 実施環境/ツール OS:Windows 11 pro GPU:NVIDIA GeForce RTX 3070Ti Laptop DCC:Houdini Indie version 19.5.493 St
何この記事 タイトルの通り、inpaintingタスクを利用して既存のイラストの服装を別のものに入れ替える、という操作を試してみたので、その流れを記しておこうというものです。 inpaintingって何よ ある画像の指定した範囲を別のイメージに置き換える技術です。 上記の例にあるように、例えば椅子の上にいるワンちゃんを消したり[1]、何もない平原に木を追加描画するなど、自由な編集が可能となります。 主な対象読者 Stable Diffusionに触り始めたばかりで、inpaintingの使い方がイマイチ分からないので、どんな感じで使えるのかざっくり知りたい方 可愛い女の子のイラストを眺めたい方 暇つぶしに何か読みてーな、という方 具体的な使い方に関しては、もっと丁寧にまとまっている記事が沢山あるので、ぜひそちらをご参照ください。この記事では大したこと書いてないです。すまんな。 実行環境 グ
キャラをポーズ取らせる方向の記事は他の方に任せて、自分の得意な背景描きの方向で研究しました。 今回の目標は、AI風景画の3D化。 画像からMidasとかで作ったデプスマップはぐにゃぐにゃでとてもポリゴンモデルにできたものではありませんが、ControlNetのDepthならポリゴンから画像を、確実に狙った形にできるのがわかったので、それを利用して背景を3Dポリゴンに焼き込めないかという目論見です。 Blenderでモデリングできて、UVまで作れる人向けの記事です。 BlenderにはすでにDreamTextureというアドオンがありますが 現時点ではまだcontrolnetに対応しておらず、SD1.5しかデプスマップを利用できません。またプロジェクション機能はマテリアルとUVをまるごと書き換えてしまうのも使い勝手が悪いという感想でした。 Blenderでデプスマップを書き出す方法コンポジタ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く