並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 69件

新着順 人気順

python3 venv activate windowsの検索結果1 - 40 件 / 69件

  • ローカルで動く大規模言語モデル(Rinna-3.6B)を使ってあなただけのAIパートナーを作ろう - Qiita

    はじめに はじめまして。株式会社ずんだもんのアルバイトエンジニアのinadaです。 今日は誰でも作れるずんだもんと題してローカルPCにずんだもんAIを作ります。この記事はそのチュートリアル記事です。 (誰でもと書いてますが、RTX 3060(12G)搭載以上のPC推奨です。CPUマシンでも出来る部分はありますが非推奨です。RTX 3060(12G)のグラボは5万ぐらいで買えるので持ってなければ買っちゃいましょう。) 対象読者/記事の範囲 ローカルPCで動かせる大規模言語モデルを、学習用のデータの用意から、学習、動かすところまで一通りどんなものか、お試ししてみたい人。 自分だけの世界にただ一人だけのうちの子、またはパートナー(うちの嫁)を作り育てたい。そんな沼にはまりたい、興味がある人。 AIの仕組みや用語は当記事では解説しません。AIの用語(モデル, loss, epoch, checkp

      ローカルで動く大規模言語モデル(Rinna-3.6B)を使ってあなただけのAIパートナーを作ろう - Qiita
    • MCP(Model Context Protocol)を活用したJグランツ補助金検索システムの実装例|デジタル庁

      デジタル庁プロダクトマネージャーユニットの土岐竜一です。事業者の手続システム総括班で、Jグランツを含む事業者向けシステムなどを担当しています。 この記事では、デジタル庁が運用する補助金電子申請システム「Jグランツ」のAPIを、Anthropic社が提唱するModel Context Protocol(MCP) によりラッピングし、LLMから利用可能なシステムのサンプル設計および実装について説明します。 具体的には、Pythonで簡単に実装できるFastMCPフレームワークを利用し、Jグランツの補助金検索や詳細の取得などの実用的な機能を備えたMCPサーバーを例として実装します。なお、本記事におけるコードはGitHubよりダウンロード可能です。 本実装例で実現できること今回紹介するMCPサーバーを利用すると、LLM(Claudeなど)を通じて、以下のような自然言語によるJグランツの補助金検索や

        MCP(Model Context Protocol)を活用したJグランツ補助金検索システムの実装例|デジタル庁
      • Python Web UIフレームワーク Streamlitの基本 | gihyo.jp

        寺田 学(@terapyon)です。2024年10月の「Python Monthly Topics」は、Python Web UIフレームワークの1つであるStreamlitの基本的な使い方を紹介します。 2024年4月には、「⁠Python Web UIフレームワークで作るデスクトップアプリ」と題し、Steamlitを使ってデスクトップアプリ化をする紹介を行いました。 今回はStreamlitにフォーカスを当てて、よく使う機能を紹介します。Streamlitにはたくさんの機能があり、公式ドキュメント APIリファレンスを見ても、どの機能から使って良いのかわからないという声がありました。今回は、筆者目線でよく使うであろう機能に絞って紹介します。 Streamlitとは StreamlitはPythonで構築できるWeb用のフレームワークです。Pythonのモジュールを定義することで、インタ

          Python Web UIフレームワーク Streamlitの基本 | gihyo.jp
        • Python Web UIフレームワークで作るデスクトップアプリ | gihyo.jp

          寺田 学(@terapyon)です。2024年4月の「Python Monthly Topics」は、Python Web UIフレームワークの1つであるStreamlitを使ってWindowsやmacOSのデスクトップアプリを作る方法を解説します。 目的⁠・モチベーション Pythonで自動化のスクリプトを作ったり、JupyterLabやColaboratoryでデータの可視化を行うことがあります。これらを作成者以外の多くの方に利用してもらう方法として、Webシステムやデスクトップアプリとして提供する方法が考えられます。 Webシステムの構築やデスクトップアプリの作成となると、技術的なハードルがあります。他には、時間的なコストに見合わないという状況もあり得ます。 Python Web UIフレームワークを使うことで、比較的少ないコードでWeb UIからスクリプトの実行や可視化をするアプリ

            Python Web UIフレームワークで作るデスクトップアプリ | gihyo.jp
          • Dev Containerを使ってステップバイステップで作るPythonアプリケーション開発環境 - 電通総研 テックブログ

            みなさんこんにちは、電通総研コーポーレート本部システム推進部の佐藤太一です。 この記事では、VS CodeのDev Containerを使ってOSに依存しないPythonの開発環境を構築する方法をステップバイステップで丁寧に説明します。 VS Codeの利用経験があり、またPythonによるアプリケーション開発に興味のある方を想定読者として記述しています。Pythonの初心者から中級者向けを意識して書いていますので、意図して冗長な説明をしています。 すでにPythonによるアプリケーション開発に十分に詳しい方は、まずはまとめだけ読んでみてください。私自身それほどPythonのエコシステムに詳しいわけではありませんので、知識の抜け漏れは恐らくあるでしょう。そういった事に気が付いたら、XなどのSNSでこの記事のURLを付けてコメントをしていただけると幸いです。 はじめに 事前の準備 最小限のD

              Dev Containerを使ってステップバイステップで作るPythonアプリケーション開発環境 - 電通総研 テックブログ
            • OpenAIのSpeech-To-Text AI「Whisper」をM1 Macで試してみる

              OpenAIがSpeech-To-Text AIのWhisperを発表しました。Githubからpipでインストールすれば簡単に使えます。私のM1 Max MacBook Proでも動作しましたので、作業内容を書いておきます。 GitHub – openai/whisper: Robust Speech Recognition via Large-Scale Weak Supervision Python仮想環境を作る Python自体のインストールは既に終わっているところから書くことにします。私の環境は、ASDFを使ってPythonのバージョンを使い分けており、今回使用するのは、miniforge3-4.10.3-10です。Python 3.9.13が動作しています。 まず、仮想環境を作ります。miniforgeを使っていながらPython標準のvenvを使っていました。(あまり意識して

                OpenAIのSpeech-To-Text AI「Whisper」をM1 Macで試してみる
              • Excel手作業終了のお知らせ!Gemini CLI + MCPでExcel生成時代到来

                ___ /     \ /  ✨ノ  ヽ、✨ \ /  (◕)  (◕)  \  Excelを手でつくる時代が |    (**人**)   |  ついに終わったおーーー!! \    ` ⌒´    / /          ヽ ┏━━━━━━━━━━━━━━━━━━━━━━━━┓ ┃ Gemini CLI × Excel MCPで「手作業Excel」終了! ┃ ┃ 調査→整理→Excel出力まで全自動!!      ┃ ┗━━━━━━━━━━━━━━━━━━━━━━━━┛ ٩(◕‿◕)۶ やったーー!! AI時代キタ━━━━(◕‿◕)━━━━!! \                           / \  Excel手作り終了わーい!  / \                        / (◕‿◕)/(◕‿◕)/(◕‿◕)/ ∩_∩                   ∩_

                  Excel手作業終了のお知らせ!Gemini CLI + MCPでExcel生成時代到来
                • Python製静的サイトジェネレーターSphinxでWebサイトを構築して公開 | gihyo.jp

                  鈴木たかのり(@takanory)です。今月の「Python Monthly Topics」では、Python製の静的サイトジェネレーターSphinxを使用してWebサイトを構築し、テーマを適用、外部へ公開する流れについて紹介します。後半ではSphinxの便利な拡張機能を紹介し、Webサイトをより便利にしていきます。 Markdownでドキュメントを書くだけで、きれいなWebサイトが簡単に公開できるので、ライブラリのドキュメントなどでもよく使われています。 Sphinxとは SphinxはPython製の静的サイトジェネレーターです。静的サイトジェネレーターとは、Markdown等の軽量マークアップのテキストファイルから、静的なWebサイトを生成するアプリケーションのことを言います。Python製の静的サイトジェネレーターにはSphinxを含め以下のツールなどがあります。 Sphinx:h

                    Python製静的サイトジェネレーターSphinxでWebサイトを構築して公開 | gihyo.jp
                  • オープンソースのクロスプラットフォーム監視ツール「Glances」、CPU・メモリ・ディスク・ネットワーク使用量などをターミナルだけでなくウェブサーバーモードで監視可能

                    サーバーやPCの状態をリアルタイムで把握したい場合にプロセスやCPUリソースだけでなく、ネットワークの送受信やディスクの読み書き、さらにはdockerのコンテナのリソース情報を一画面で確認できるオープンソースのシステム監視ツール「Glances」が公開されています。 nicolargo/glances: Glances an Eye on your system. A top/htop alternative for GNU/Linux, BSD, Mac OS and Windows operating systems. https://github.com/nicolargo/glances ◆インストール方法 今回はAlmaLinuxのサーバーにインストールします。ユーザーディレクトリに仮想環境を作成し、アクティベート後pipでインストールします。 cd ~/ python3 -m

                      オープンソースのクロスプラットフォーム監視ツール「Glances」、CPU・メモリ・ディスク・ネットワーク使用量などをターミナルだけでなくウェブサーバーモードで監視可能
                    • 生成AIグラビアをグラビアカメラマンが作るとどうなる?第十回:実在モデルからSDXL用顔LoRAを作る (西川和久) | テクノエッジ TechnoEdge

                      https://www.techno-edge.net/special/560/recent/%E7%94%9F%E6%88%90AI%E3%82%B0%E3%83%A9%E3%83%93%E3%82%A2%E3%82%92%E3%82%B0%E3%83%A9%E3%83%93%E3%82%A2%E3%82%AB%E3%83%A1%E3%83%A9%E3%83%9E%E3%83%B3%E3%81%8C%E4%BD%9C%E3%82%8B%E3%81%A8%E3%81%A9%E3%81%86%E3%81%AA%E3%82%8B%EF%BC%9F続きを読む » Modelに無い顔や彼女の顔を出したい!生成AIでポートレート写真やグラビアを作っていると、同じような雰囲気の顔ばかりが結構出るのに気付く。 もちろん何パターンもあるので、毎回同じでもないのだが、XやInstagramなどの生成AI画像

                        生成AIグラビアをグラビアカメラマンが作るとどうなる?第十回:実在モデルからSDXL用顔LoRAを作る (西川和久) | テクノエッジ TechnoEdge
                      • Rust製のPythonパッケージ管理ツール「uv」を使ってみよう | gihyo.jp

                        それぞれのツールに関する詳しい説明は本記事では行いません。詳しく知りたい方は、ツール名のリンクから公式ドキュメント等を参照してみてください。 上記の表に挙げたツール群にはそれぞれに特徴があります。pyenv、venv、pipのように単一機能に特化したものから、Condaのようにデータサイエンスや機械学習プロジェクトで使用される複雑なパッケージの依存関係や環境管理をサポートするツール、PoetryのようにPythonパッケージインデックス(PyPI)への公開をサポートするツールなど、開発シーンに合わせて選択することができます。 uvとは uvは2024年の2月中旬に発表されたばかりの新しいパッケージ管理ツールです。Rustで書かれており、ここ最近で飛躍的に使用されるようになったRust製のPythonリンター&フォーマッター「Ruff」を開発しているAstral社によって提供されています[1

                          Rust製のPythonパッケージ管理ツール「uv」を使ってみよう | gihyo.jp
                        • 画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法

                          非常に高精度な画像を生成できるとして大きな話題を呼ぶ画像生成AI「Stable Diffusion」は、オープンソースであるためユーザーがローカル環境で実行することもできますが、記事作成時点ではNVIDIA製GPUの使用が推奨されています。そのため、「Stable Diffusionが気になっているけどMacユーザーだからローカルで実行できない」という人もいるはず。そんなMacユーザーに向けて、「Stable DiffusionをM1・M2チップ搭載Macのローカル上で実行する方法」についてオープンソースの機械学習モデルをクラウドのAPIで実行するウェブサービス・ Replicateが解説しています。 Run Stable Diffusion on your M1 Mac’s GPU - Replicate – Replicate https://replicate.com/blog/ru

                            画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法
                          • さらなる進化を遂げた「uv」の新機能 | gihyo.jp

                            福田(@JunyaFff)です。本連載Python Monthly Topicsで2024年3月に公開したRust製のPythonパッケージ管理ツール「uv」を使ってみよう で紹介した「uv」が、さらなる進化を遂げました。今回は、その新機能を紹介します。 はじめに Astral社が開発するRust製の高速なpipの代替ツール「uv」がパッケージマネージャーとして8月にアップデートされました。pipの代替ツールとしてだけでなく、Pythonプロジェクト、コマンドラインツール、単一ファイルスクリプトさらにPython自体を管理できるようになりました。uvは、pipやpipx、venv、poetryやpyenvのような機能を包括していると言え、そしてそのすべてが非常に高速に動作します。 本記事では、アップデートした「uv」の新機能を中心に紹介します。 基本的な使い方は Rust製のPythonパ

                              さらなる進化を遂げた「uv」の新機能 | gihyo.jp
                            • WSL2でSakana AIを試してみる|noguchi-shoji

                              「進化的モデルマージにより日本語数学LLMとして構築したEvoLLM-JPは、数学のみならず、日本語の全般的な能力に長けている」らしいEvoLLM-JPを試してみます。 追記(2024/3/22) 10Bのモデルですが、torch_dtypeを"auto"からtorch.bfloat16に変更すると、推論のスピードが改善しました。 モデルEvoLLM-JPは、3種提供されています。今回は3つとも試します。 - 大規模言語モデル SakanaAI/EvoLLM-JP-v1-10B : MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-v1-7B :  MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-A-v1-7B : Apache License, Version 2.0 ※画像言語

                                WSL2でSakana AIを試してみる|noguchi-shoji
                              • LINE LLMをMacで動かす - きしだのHatena

                                先日、LINE(現LINEヤフー)のNLP Foundation Devチームから日本語言語モデルが公開されました。(以降LINE LLMと表記します) 36億パラメータの日本語言語モデルを公開しました Instruction Tuningにより対話性能を向上させた3.6B日本語言語モデルを公開します でも「NVIDIAのGPUがないと動かないんでしょ」と、試していない人も多いんではないでしょうか。 そこでこのブログでは、MacでLINE LLMを動かす手順をまとめたいと思います。 Windowsや他のLLMでもほぼ同じ手順で動かせるはずです。 次のような手順で進めます。 pythonインストール ライブラリインストール 1.7Bのサンプルコードを動かす チャットインタフェースで1.7Bを動かす CTranslateによる3.6B llama.cppによる3.6B Pythonインストール

                                  LINE LLMをMacで動かす - きしだのHatena
                                • Python開発の新常識「uv」入門:仮想環境って何?から環境の共有まで|Yuya Enokida

                                  最近、ADKを使ってpythonでAIエージェントの開発をしており、uvを使っています。その中で環境の共有を行うときにどうすればいいんだっけ?という小さな悩みから、自分の中での理解も深めるためにこの記事を書きました。 そもそも仮装環境とは?という初歩的なところから記載してるので、初めての方でも読みやすい内容になってるかと思います。 さて、本題ですが、 Pythonを使い始めると必ずぶつかるのが「環境構築」の壁です。「自分のパソコンでは動くのに、他の人の環境では動かない……」そんな悩みを一気に解決してくれる最新話題のツール、uv の使い方や環境の共有の注意事項等について解説します。 1. そもそも「仮想環境」はなぜ必要なのか?Pythonの開発では、プロジェクトごとに「仮想環境」を作るのが鉄則です。 例えば: プロジェクトA: 少し古いライブラリを使うので、Python 3.10が必要 プロ

                                    Python開発の新常識「uv」入門:仮想環境って何?から環境の共有まで|Yuya Enokida
                                  • とほほのOpenID Connect入門 - とほほのWWW入門

                                    目次 OpenID Connectとは 用語 OpenID Connectを試してみる OP側の準備 - AWS Cognito ユーザープールと最初のクライアントを作成する 作成されたパラメータを確認する ディスカバリ ユーザープールにユーザを追加する RP側の準備 - Pythonアプリ 実施 認証の流れ ログインする トークンをリフレッシュする トークンを失効させる ログアウトする IDトークンの形式 サンプルコード リンク OpenID Connectとは SSO(シングルサインオン)を実現するプロトコルのひとつです。 例えば、食べログ に Google アカウントでログインすることができますが、ここでも OpenID Connect が使用されています。 OIDC と略されることもあります。 類似の仕様に OpenID 2.0 がありましたが、OpenID 2.0 の進化系が O

                                    • WSL2でunslothのGPROトレーニングを試してみる|noguchi-shoji

                                      「DeepSeek-R1 の推論を自分のローカル デバイスで再現できるように」「わずか7GBのVRAMでアハ体験を」とのことなので、UnslothのGRPO(Group Relative Policy Optimizatin)トレーニングを試してみます。 今回は Phi-4 (14B)で試してみます。 You can now reproduce DeepSeek-R1's reasoning on your own local device! Experience the "Aha" moment with just 7GB VRAM. Unsloth reduces GRPO training memory use by 80%. 15GB VRAM can transform Llama-3.1 (8B) & Phi-4 (14B) into reasoning models. Blo

                                        WSL2でunslothのGPROトレーニングを試してみる|noguchi-shoji
                                      • uv is the best thing to happen to the Python ecosystem in a decade - Blog - Dr. Emily L. Hunt

                                        uv is the best thing to happen to the Python ecosystem in a decade Programming 23 October 2025 | Reading time: 6 minutes It’s 2025. Does installing Python, managing virtual environments, and synchronizing dependencies between your colleagues really have to be so difficult? Well… no! A brilliant new tool called uv came out recently that revolutionizes how easy installing and using Python can be. uv

                                          uv is the best thing to happen to the Python ecosystem in a decade - Blog - Dr. Emily L. Hunt
                                        • AI Agentがブラウザを操作する「Browser Use」を試してみよう!|marumarumaru

                                          「Browser Use」って何?先日、いつも通りXを徘徊してたらLangChainのアカウントから面白いポストを発見。 AI Agentがブラウザに簡単にアクセスできるっぽい。 🛜 Browser Use Make websites accessible for AI agents 🤖 Browser use is the easiest way to connect your AI agents with the browser Use any LLM supported by LangChain (e.g. gpt4o, gpt4o mini, claude 3.5 sonnet, llama 3.1 405b, etc.)https://t.co/x9hRshFEk5 pic.twitter.com/28n9697WJU — LangChain (@LangChainAI) D

                                            AI Agentがブラウザを操作する「Browser Use」を試してみよう!|marumarumaru
                                          • How to improve Python packaging, or why fourteen tools are at least tw

                                            There is an area of Python that many developers have problems with. This is an area that has seen many different solutions pop up over the years, with many different opinions, wars, and attempts to solve it. Many have complained about the packaging ecosystem and tools making their lives harder. Many beginners are confused about virtual environments. But does it have to be this way? Are the current

                                            • 初心者でもできる!HuggingFaceモデルをGGUF形式に変換しOllamaで使う手順 - uepon日々の備忘録

                                              最近、AIのことは一応触ってはいますが、ちっともわからない状況です🫠 先日までOllamaを使用していたのでローカルLLMについてはなんとなく分かってきた様でもありという状況ですが、OllamaはGGUF形式のモデルが使えるとはいえ、すべてのモデルがGUFF形式で公開されているというわけはありません。 リポジトリ内には拡張子が無いモデルのファイルがあって…これ何?って感じです。なんとなく分かってきたのはHuggingFaceにで公開されているモデルはHFって呼ばれるモデルのようですが…。どこかに名言されてるんでしょうか🙇 ということで、HuggingFaceに公開されているHFモデルをなんとかしてOllamaでも使用可能なGGUF形式に変換できないかという内容でチャレンジしてみたいと思います。 (2024.09.11)Ollamaに作成したGGUF形式のモデルをpullする方法のリンク

                                                初心者でもできる!HuggingFaceモデルをGGUF形式に変換しOllamaで使う手順 - uepon日々の備忘録
                                              • とうとうRyzen + RADEONのAMD環境にもWindowsで動くStable Diffusionがきた - 徒労日記

                                                やっと来たAMD最初の一歩。DirectMLでAMD GPUを動かす 定期的にAMDxSD x Winのことを調べていますが、今回この記事に行き当たりました。Running Stable Diffusion on Windows with an AMD GPU Unfortunately, in its current state, it relies on Nvidia’s CUDA framework, which means that it only works out of the box if you’ve got an Nvidia GPU. Fear not, however. Because Stable Diffusion is both a) open source and b) good, it has seen an absolute flurry of activ

                                                  とうとうRyzen + RADEONのAMD環境にもWindowsで動くStable Diffusionがきた - 徒労日記
                                                • 画像生成AI「Stable Diffusion」をローカル環境で実行する - パソコン関連もろもろ

                                                  公開日:2022年8月23日 最終更新日:2023年1月16日 はじめに 環境構築 実行方法 学習済みパラメーター「sd-v1-4.ckpt」のダウンロード リポジトリのクローン 「sd-v1-4.ckpt」の移動 いよいよ実行 結果 つづき 動作確認できたその他の環境 CUDA 11.3.1 1 2 CUDA 11.6.2 1 2 VRAM不足に直面したら 更新履歴(2022年10月11日) バージョン2.1 はじめに最近「DALL-E2」や「Midjourney」など文章から画像を生成するAIが流行っています。 その一つが今回紹介する「Stable Diffusion」です。 「Stable Diffusion」の特徴はオープンソースで公開されていることであり、ローカル環境で実行可能です。 もちろんWeb上で簡単に試すことも可能で、こちらにデモンストレーションが公開されています。 hu

                                                    画像生成AI「Stable Diffusion」をローカル環境で実行する - パソコン関連もろもろ
                                                  • REST API用のファジングツール “RESTler” で始めるお手軽ファジング | IIJ Engineers Blog

                                                    IIJイノベーションインスティテュートの四谷です。普段はWeb API開発の生産性向上についての調査や開発を行っています。 今日はREST APIのテスト効率を改善するツール「RESTler」を紹介します。 RESTlerについて RESTlerはMicrosoft Researchが開発し、OSSとして公開しているREST API用のファジングツール(ファザー)です。 ファジングはネットワークプロトコルの実装等、もう少し下位レイヤーでの活用が主で、APIに対して実行できるファザーは数少ないのですが、その1つがRESTlerです。Microsoftでは実際にRESTlerを使用して、AzureやOffice365のバグを検出したそうです。 特長 RESTlerの最大の特長は、OpenAPIドキュメントとして記述されたAPI仕様さえあれば、自動的にテストケースが生成され、ファジングを実行でき

                                                      REST API用のファジングツール “RESTler” で始めるお手軽ファジング | IIJ Engineers Blog
                                                    • 似ているようで意外と違う。venvとpyenvの使い分け。

                                                      Pythonを使っていざ、本格的に何か開発していこう!ってときに悩むのが、venvとpyenv、どっちを使おうか?ってところだと思います。そこで、venvとpyenvをそれぞれ用途によって使い分けているケンヂまるが、それぞれの特徴や使い方のイメージなんかを紹介します。 環境仮想化ツールの必要性 まず先にPython開発における環境仮想化の必要性についてのおさらいですが、「開発環境では問題なく動いていたのに、本番環境ではエラーになる…。」といったことを避けることが、環境仮想化の主な目的です。 Pythonやパッケージの不一致が、開発環境と本番環境の間で発生するのを防ぐことができます。 そしてそのためのツールが、venvやpyenvです。 他にもminocndaやDockerなどの手段は色々ありますが、まずは基本であるvenvやpyenvからはじめるのがいいと思います。 ということでvenvと

                                                      • Dreambooth-LoRA - NovelAI 5ch Wiki

                                                        NovelAI 5ch Wiki 画像生成AIの情報を纏めるWikiです。 トップページページ一覧メンバー掲示板編集 × Dreambooth-LoRA 最終更新:ID:rjAUhKlqdA 2025年06月10日(火) 02:41:08履歴 概要 公式情報 sd-scripts (kohya-ss) 参考資料・スレ住民による学習ガイド 記事 インストール、初回セットアップ編 sd-scripts (作: kohya-ss) GUI・補助ツール bmaltais版 GUI Kohya_lora_param_gui (スレ住民作) あかちゃんLoraインストーラー sd-webui-train-tools その他補助スクリプト クラウド SDXLについて 学習用画像を置くフォルダの配置 Aspect Ratio Bucketing キャプション・タグを付ける WD1.4 Taggerで作成

                                                          Dreambooth-LoRA - NovelAI 5ch Wiki
                                                        • AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上)|まゆひらa

                                                          AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上) ※本記事のLoRAは、あまり性能が良いとは言えませんのでご了承ください(お試しで学習方法を学びたい、程度であれば現在でも有効ですが、古い記事なので操作方法が変わっている可能性があります)。別のLoRAについて記事を公開した際は、こちらでお知らせします。 ※DreamBoothのextensionが古いままの状態で本体をアップデートすると、本体が起動できなくなる場合があります。ご注意ください。 ※東北ずん子さんの公式画像を学習した例が、「5. 学習例」にあります。先にそちらをご覧いただいても結構です。 ※LoRAは多少の動作確認しかできておらず、適切な設定や詳細については分かりませんし、内容も誤り等があるかもしれません。ご了承く

                                                            AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上)|まゆひらa
                                                          • A 2025 Survey of Rust GUI Libraries

                                                            I did this in 2020 and then again in 2021, but I’m in the mood to look around again. Let’s look through Are We GUI Yet? and see what’s up these days. The task today is to have a text label and an input field that can change the text in the label. In React, for example, this is basically free: const Demo = () => { let [state, setState] = useState("Hello, world!"); return ( <div> <p>{state}</p> <inp

                                                            • 1時間でAMD ROCm環境を構築してStableDiffusionを走らせてみた | DevelopersIO

                                                              ここ12年ほど、グラフィックスボードはRadeonを使い続けている水島が大阪よりお届けします。 AMD Radeonをこれでもかと推す内容となっておりますが、単に個人的な好みですのでご承知いただければ幸いです。 昨今世間を賑わわせているいくつかの画像生成AIですが、中でもStable Diffusionはオープンソースソフトウェアとして公開され、自分のマシンで実行できることが話題となりました。ローカルで実行できれば順番待ちも利用費も気にせず、リソースの限り好きなだけ試行できます。必要なのは時間と電気代と、そう、グラフィックスボードです。 幸い、高騰していたグラフィックスボードの価格も落ち着いてきておりますので、価格を理由に購入を見合わせていた方もそろそろ動き出す頃合いではないでしょうか。 用意するもの AMD Radeon グラフィックスボード ではまず、最新のROCmが動作するグラフィク

                                                                1時間でAMD ROCm環境を構築してStableDiffusionを走らせてみた | DevelopersIO
                                                              • Windows PCでStable Diffusion WebUI Forgeを利用する手順(旧ver.用)|まゆひらa

                                                                Windows PCでStable Diffusion WebUI Forgeを利用する手順(旧ver.用) Last update 6-13-2024 ※ 新ver.を使う記事もあり、FLUX.1への対応について触れています。 ※ (8-13) 記事では紹介していませんが、旧ver.のポータブル版が配布されています。こちらを利用するのも良いと思います。 ※ (6-13) 本ツールについて、今後は実験用途に用いられるため通常利用ができなくなります。用途変更前の版を利用することは可能なので、目次の次に詳細を記載します。 ※ 本記事は簡潔な紹介のみです。詳細は関連記事を、使い方はAUTOMATIC1111氏のStable Diffusion web UI向けのものを参照してください。 ▼ 追記:現状の最終版を利用する方法背景 2024年6月上旬、今後はStable Diffusion WebU

                                                                  Windows PCでStable Diffusion WebUI Forgeを利用する手順(旧ver.用)|まゆひらa
                                                                • トレノキャンプ

                                                                  1.venvとは? 2.仮想環境の作り方・venvの使い方 Windows、Mac、LinuxなどのOSに関係なく、Pythonでプログラムを作成する際は「仮想環境」を作成した上で 作業することが勧められています。 Python初学者向けに仮想環境が必要な理由、作成・実行方法などを、WindowsとMac両方のパターンでご紹介します。 1.venvとは? Pythonで仮想環境といえば標準モジュールの「venv」が有名です。仮想環境や「venv」についてご紹介します。 ①Pythonの仮想環境とは Pythonの「仮想環境」とは、システムにあるPythonの環境とは別の実行環境のことをいいます。 わざわざ仮想的な空間(エリア)を用意する目的としては、 ・システムのPython環境は変えたくない ・ひとつのシステム内で異なるPythonの環境(違うバージョンなど)を実行したい ・プロジェクト

                                                                    トレノキャンプ
                                                                  • StableなL

                                                                    最近気になるLoRAという学習方法。 DreamBoothである程度やりたいことはできていたけれど、もっと良い方法だとしたら試してみたい。 そう思って手をつけたけどなかなか上手くいきませんでした。 しかしKohya GUIというツールを知った結果ようやく成功。 その手順を共有します。 LoRAとDreamBoothの違い画像生成モデル、かつ利用者視点での話で書くと、 「短時間、低VRAMで絵柄の追加学習ができ、ファイルサイズも少ない学習手法」 です。あくまでDreamBoothとくらべて。 学習後のファイルLoRAの学習済みファイルは百数十MB。 これを画像生成時に追加で読み込ませ、アドインのような感覚で既存モデルの絵柄に追加要素を流し込めます。 その学習済みファイルはほぼ学習画像で構成されているようで、とても強く反映されます。そのためPromptで強度を調節しながら適用します。 凝縮され

                                                                      StableなL
                                                                    • 一枚絵があれば動く。Talking-Head-Anime-3のインストールして、ポーズデータでスムーズに動かすーAPI編|めぐチャンネル

                                                                      夜宣伝 1枚の立ち絵イラスト用意があればモデリングやパーツ分け不要ですぐにVTuberになったりできます! Talking Head Anime 3 SWhttps://t.co/hKO1VfCDmz Talking Head Anime 3 SW Plus (NDI, Spout出力対応&個人商用利用可ver.) https://t.co/7Gy2oAoIG3 https://t.co/y0amBEd2V2 — あわいろ (@pale_color) January 30, 2024 Talking Head Anime 3に需要はあるのか手軽に動かしたい、2Dや3Dの制御は大変、キャプチャして変換をするにはちょっと作業が重い、など、とにかくかんたんに動くキャラが欲しいという方々向けです。手や足は動きませんし、物理演算をするわけでもないので髪の毛は揺れませんが、上半身は十分にスムースに動い

                                                                        一枚絵があれば動く。Talking-Head-Anime-3のインストールして、ポーズデータでスムーズに動かすーAPI編|めぐチャンネル
                                                                      • 【入門】各種AIソフトウェアのインストールを一気に解説していく【Windows】|Catapp-Art3D

                                                                        想定している読者【難しい内容ではなく入門者向けですが、どちらかと言うと、ガッツリ理解したい人向けです】 ※ 単に Stable Diffusion を動かしたいだけなら、現状は StabilityMatrix が最適です。 ※ github に公開されているAIソフトウェアを、誰かの解説なしに利用したい人向けです。 【ローカルでさまざまな画像系AIソフトウェア利用を本格的にはじめたいと考えている人】 【Anaconda で Python パッケージ管理をはじめて行う人】 ※ 非開発者・非 Python プログラマ向けの内容です。利用者側の視点で記述しています。 【Windows コマンドプロンプトを利用した事がある人】 ※ すべて Windows コマンドプロンプトで説明します。Powershell は利用しません。 【以下ソフトウェアの同時インストール&保守したいと考えている人】 ▢ A

                                                                          【入門】各種AIソフトウェアのインストールを一気に解説していく【Windows】|Catapp-Art3D
                                                                        • Ollamaと行くローカルLLMの道

                                                                          はじめに Ollamaはオープンソースで開発されているLLMの実行環境です。 このシステムはDockerなどのコンテナのようにモデルを扱うことで、モデルの公開や使用を非常に簡単に行うことができます。 使ってみる OllamaはWindows、macOS、Linux向けに提供されています。 公式サイトからダウンロードしてインストールしてみましょう。 モデル Ollamaはモデルをモデル名:タグの形式で識別します。 例えばGoogleのgemma3の4Bモデルはgemma3:4bのように表されます。 これらのモデル一覧は以下のページから確認することができます。 モデルを落としてきましょう これを実行するとgemma3:4bという名前の付いたモデルがダウンロードできます。 モデルページにはチャットテンプレートやライセンスの情報、パラメータなどが書かれています。 gemma3:4bのページを確認す

                                                                            Ollamaと行くローカルLLMの道
                                                                          • FramePack動画生成(Windows)|青猫

                                                                            はじめにまずFramePackとはなんぞやって話ですが、これはIllyasviel氏の作った動画生成の仕組みです。 次フレーム予測の独自ネットワークを使って動画生成する感じで、そこ以外は大体HunyuanVideoのものを流用してるぽい印象です。(中身の解説は他の人に任せますw) 入力コンテキストを一定の長さに圧縮するから、ビデオが長くなってもメモリの消費は増えないそうで、VRAM 6GBあれば動くぜってのがウリですね。 インストールうちのWindows環境(GeForce RTX3060 12GB)にインストールしてみます。 「すぐにワンクリック版を出すから明日見に来てね」……なんて言われたけど(まぁなんとかなる筈w) 「Python 3.10推奨だよ」……って言われたけど、手元のPythonは3.13なんだよなぁ(少し工夫が要るかもw) というわけで、まずはクローンして中に入ります。

                                                                              FramePack動画生成(Windows)|青猫
                                                                            • GitHub Secure Deployments with OIDC を Azure AD で試す

                                                                              GitHub Secure Deployments with OIDC を Azure AD で試すwatahani23 MinutesOctober 30, 2021 プレビューの時に AWS が対応したと話題だった GitHub ID トークンとか呼ばれてた機能が正式発表された。 GitHub Actions: Secure cloud deployments with OpenID Connect | GitHub Changelog ドキュメントを見ると、Azure AD との連携手順もしっかり公開されているので早速試してみた。ついでに az cli でラッピングされているトークン取得の通信も調べてみた。 OverviewGitHub のようなソース管理ツールは、今や CI/CD のプラットフォームとしても拡大している。いわゆる DevOps。GitHub にも多分に漏れず Git

                                                                                GitHub Secure Deployments with OIDC を Azure AD で試す
                                                                              • 【海外記事紹介】uvはここ10年のPythonエコシステムの中でも最高のプロダクトだ

                                                                                10月30日、Emily Space氏が「uv is the best thing to happen to the Python ecosystem in a decade」と題した記事を公開した。この記事では、Pythonのインストールや仮想環境の管理、依存関係の同期といった長年の課題を一変させる新ツール「uv」について詳しく紹介されている。以下に、その内容を紹介する。 Python環境管理を一新する「uv」 「uv」は、Pythonツール群を開発するスタートアップAstralによって開発されたオープンソースの新ツールである。同社は高性能リンター「Ruff」でも知られており、今回のuvも同様にRustで実装された高速なPython管理ツールだ。 uvは次のような機能を備えている。 Pythonのバージョンを自動でインストール パッケージのインストールと依存関係の解決 仮想環境の作成と管

                                                                                  【海外記事紹介】uvはここ10年のPythonエコシステムの中でも最高のプロダクトだ
                                                                                • Stable Diffusion+Windows 10+AMD GPUの環境で動かす – code-lab.net

                                                                                  Stable DiffusionをWindows 10とAMD GPU上で動作させている記事、Running Stable Diffusion on Windows with an AMD GPUを見つけたので、実践。以下は作成してみたサンプル。 事前準備 まずは実行環境を確認。 ・メモリ6GB以上のAMD GPU ・Pythonの3.7、3.8、3.9、3.10がインストールされている ・Gitがインストールされている。 ・Hugging Face(Stable Diffusionの学習済みモデルを公開している)のアカウント ・6GBの学習モデルをダウンロード&変換する勇気 と言うわけでPythonのインストール。PythonはMicrosoft StoreからPython 3.10をインストールしてしまうのが手がかからない。 続いてGitのインストール。私はVisual Studioと