並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 60件

新着順 人気順

python source activate venv windowsの検索結果1 - 40 件 / 60件

  • ローカルで動く大規模言語モデル(Rinna-3.6B)を使ってあなただけのAIパートナーを作ろう - Qiita

    はじめに はじめまして。株式会社ずんだもんのアルバイトエンジニアのinadaです。 今日は誰でも作れるずんだもんと題してローカルPCにずんだもんAIを作ります。この記事はそのチュートリアル記事です。 (誰でもと書いてますが、RTX 3060(12G)搭載以上のPC推奨です。CPUマシンでも出来る部分はありますが非推奨です。RTX 3060(12G)のグラボは5万ぐらいで買えるので持ってなければ買っちゃいましょう。) 対象読者/記事の範囲 ローカルPCで動かせる大規模言語モデルを、学習用のデータの用意から、学習、動かすところまで一通りどんなものか、お試ししてみたい人。 自分だけの世界にただ一人だけのうちの子、またはパートナー(うちの嫁)を作り育てたい。そんな沼にはまりたい、興味がある人。 AIの仕組みや用語は当記事では解説しません。AIの用語(モデル, loss, epoch, checkp

      ローカルで動く大規模言語モデル(Rinna-3.6B)を使ってあなただけのAIパートナーを作ろう - Qiita
    • MCP(Model Context Protocol)を活用したJグランツ補助金検索システムの実装例|デジタル庁

      デジタル庁プロダクトマネージャーユニットの土岐竜一です。事業者の手続システム総括班で、Jグランツを含む事業者向けシステムなどを担当しています。 この記事では、デジタル庁が運用する補助金電子申請システム「Jグランツ」のAPIを、Anthropic社が提唱するModel Context Protocol(MCP) によりラッピングし、LLMから利用可能なシステムのサンプル設計および実装について説明します。 具体的には、Pythonで簡単に実装できるFastMCPフレームワークを利用し、Jグランツの補助金検索や詳細の取得などの実用的な機能を備えたMCPサーバーを例として実装します。なお、本記事におけるコードはGitHubよりダウンロード可能です。 本実装例で実現できること今回紹介するMCPサーバーを利用すると、LLM(Claudeなど)を通じて、以下のような自然言語によるJグランツの補助金検索や

        MCP(Model Context Protocol)を活用したJグランツ補助金検索システムの実装例|デジタル庁
      • Python Web UIフレームワーク Streamlitの基本 | gihyo.jp

        寺田 学(@terapyon)です。2024年10月の「Python Monthly Topics」は、Python Web UIフレームワークの1つであるStreamlitの基本的な使い方を紹介します。 2024年4月には、「⁠Python Web UIフレームワークで作るデスクトップアプリ」と題し、Steamlitを使ってデスクトップアプリ化をする紹介を行いました。 今回はStreamlitにフォーカスを当てて、よく使う機能を紹介します。Streamlitにはたくさんの機能があり、公式ドキュメント APIリファレンスを見ても、どの機能から使って良いのかわからないという声がありました。今回は、筆者目線でよく使うであろう機能に絞って紹介します。 Streamlitとは StreamlitはPythonで構築できるWeb用のフレームワークです。Pythonのモジュールを定義することで、インタ

          Python Web UIフレームワーク Streamlitの基本 | gihyo.jp
        • Python Web UIフレームワークで作るデスクトップアプリ | gihyo.jp

          寺田 学(@terapyon)です。2024年4月の「Python Monthly Topics」は、Python Web UIフレームワークの1つであるStreamlitを使ってWindowsやmacOSのデスクトップアプリを作る方法を解説します。 目的⁠・モチベーション Pythonで自動化のスクリプトを作ったり、JupyterLabやColaboratoryでデータの可視化を行うことがあります。これらを作成者以外の多くの方に利用してもらう方法として、Webシステムやデスクトップアプリとして提供する方法が考えられます。 Webシステムの構築やデスクトップアプリの作成となると、技術的なハードルがあります。他には、時間的なコストに見合わないという状況もあり得ます。 Python Web UIフレームワークを使うことで、比較的少ないコードでWeb UIからスクリプトの実行や可視化をするアプリ

            Python Web UIフレームワークで作るデスクトップアプリ | gihyo.jp
          • Dev Containerを使ってステップバイステップで作るPythonアプリケーション開発環境 - 電通総研 テックブログ

            みなさんこんにちは、電通総研コーポーレート本部システム推進部の佐藤太一です。 この記事では、VS CodeのDev Containerを使ってOSに依存しないPythonの開発環境を構築する方法をステップバイステップで丁寧に説明します。 VS Codeの利用経験があり、またPythonによるアプリケーション開発に興味のある方を想定読者として記述しています。Pythonの初心者から中級者向けを意識して書いていますので、意図して冗長な説明をしています。 すでにPythonによるアプリケーション開発に十分に詳しい方は、まずはまとめだけ読んでみてください。私自身それほどPythonのエコシステムに詳しいわけではありませんので、知識の抜け漏れは恐らくあるでしょう。そういった事に気が付いたら、XなどのSNSでこの記事のURLを付けてコメントをしていただけると幸いです。 はじめに 事前の準備 最小限のD

              Dev Containerを使ってステップバイステップで作るPythonアプリケーション開発環境 - 電通総研 テックブログ
            • Python製静的サイトジェネレーターSphinxでWebサイトを構築して公開 | gihyo.jp

              鈴木たかのり(@takanory)です。今月の「Python Monthly Topics」では、Python製の静的サイトジェネレーターSphinxを使用してWebサイトを構築し、テーマを適用、外部へ公開する流れについて紹介します。後半ではSphinxの便利な拡張機能を紹介し、Webサイトをより便利にしていきます。 Markdownでドキュメントを書くだけで、きれいなWebサイトが簡単に公開できるので、ライブラリのドキュメントなどでもよく使われています。 Sphinxとは SphinxはPython製の静的サイトジェネレーターです。静的サイトジェネレーターとは、Markdown等の軽量マークアップのテキストファイルから、静的なWebサイトを生成するアプリケーションのことを言います。Python製の静的サイトジェネレーターにはSphinxを含め以下のツールなどがあります。 Sphinx:h

                Python製静的サイトジェネレーターSphinxでWebサイトを構築して公開 | gihyo.jp
              • オープンソースのクロスプラットフォーム監視ツール「Glances」、CPU・メモリ・ディスク・ネットワーク使用量などをターミナルだけでなくウェブサーバーモードで監視可能

                サーバーやPCの状態をリアルタイムで把握したい場合にプロセスやCPUリソースだけでなく、ネットワークの送受信やディスクの読み書き、さらにはdockerのコンテナのリソース情報を一画面で確認できるオープンソースのシステム監視ツール「Glances」が公開されています。 nicolargo/glances: Glances an Eye on your system. A top/htop alternative for GNU/Linux, BSD, Mac OS and Windows operating systems. https://github.com/nicolargo/glances ◆インストール方法 今回はAlmaLinuxのサーバーにインストールします。ユーザーディレクトリに仮想環境を作成し、アクティベート後pipでインストールします。 cd ~/ python3 -m

                  オープンソースのクロスプラットフォーム監視ツール「Glances」、CPU・メモリ・ディスク・ネットワーク使用量などをターミナルだけでなくウェブサーバーモードで監視可能
                • Rust製のPythonパッケージ管理ツール「uv」を使ってみよう | gihyo.jp

                  それぞれのツールに関する詳しい説明は本記事では行いません。詳しく知りたい方は、ツール名のリンクから公式ドキュメント等を参照してみてください。 上記の表に挙げたツール群にはそれぞれに特徴があります。pyenv、venv、pipのように単一機能に特化したものから、Condaのようにデータサイエンスや機械学習プロジェクトで使用される複雑なパッケージの依存関係や環境管理をサポートするツール、PoetryのようにPythonパッケージインデックス(PyPI)への公開をサポートするツールなど、開発シーンに合わせて選択することができます。 uvとは uvは2024年の2月中旬に発表されたばかりの新しいパッケージ管理ツールです。Rustで書かれており、ここ最近で飛躍的に使用されるようになったRust製のPythonリンター&フォーマッター「Ruff」を開発しているAstral社によって提供されています[1

                    Rust製のPythonパッケージ管理ツール「uv」を使ってみよう | gihyo.jp
                  • ゼロからはじめるPython(128) Whisperでリアルタイム音声認識ツールを作ってみよう

                    オープンソースの音声認識モデルのWhisperを使うと、手軽に高品質な音声認識(文字起こし)が可能となる。今回は、Whisperを利用して簡単に使えるリアルタイム音声認識ツールを作ってみよう。 リアルタイム音声認識ツールを実行しているところ 音声認識モデルのWhisperとは 「Whisper」は、ChatGPTで有名なOpenAIが公開しているオープンソースの音声認識モデルだ。高精度な音声認識モデルで、英語だけでなく日本語を含めた多言語の音声をテキストに変換できる。ノイズの多い環境でも高い認識精度を誇り、議事録作成や字幕生成、自動文字起こしなどに活用されている。 Pythonから簡単に扱える点も魅力で、柔軟な応用が可能となっている。そこで、今回は、Pythonでリアルタイムの音声認識ツールを作ってみよう。 音声認識モデルのWhisperを公開しているWebサイト 音声認識に使うライブラリ

                      ゼロからはじめるPython(128) Whisperでリアルタイム音声認識ツールを作ってみよう
                    • 画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法

                      非常に高精度な画像を生成できるとして大きな話題を呼ぶ画像生成AI「Stable Diffusion」は、オープンソースであるためユーザーがローカル環境で実行することもできますが、記事作成時点ではNVIDIA製GPUの使用が推奨されています。そのため、「Stable Diffusionが気になっているけどMacユーザーだからローカルで実行できない」という人もいるはず。そんなMacユーザーに向けて、「Stable DiffusionをM1・M2チップ搭載Macのローカル上で実行する方法」についてオープンソースの機械学習モデルをクラウドのAPIで実行するウェブサービス・ Replicateが解説しています。 Run Stable Diffusion on your M1 Mac’s GPU - Replicate – Replicate https://replicate.com/blog/ru

                        画像生成AI「Stable Diffusion」をM1搭載Macのローカル上で実行する方法
                      • さらなる進化を遂げた「uv」の新機能 | gihyo.jp

                        福田(@JunyaFff)です。本連載Python Monthly Topicsで2024年3月に公開したRust製のPythonパッケージ管理ツール「uv」を使ってみよう で紹介した「uv」が、さらなる進化を遂げました。今回は、その新機能を紹介します。 はじめに Astral社が開発するRust製の高速なpipの代替ツール「uv」がパッケージマネージャーとして8月にアップデートされました。pipの代替ツールとしてだけでなく、Pythonプロジェクト、コマンドラインツール、単一ファイルスクリプトさらにPython自体を管理できるようになりました。uvは、pipやpipx、venv、poetryやpyenvのような機能を包括していると言え、そしてそのすべてが非常に高速に動作します。 本記事では、アップデートした「uv」の新機能を中心に紹介します。 基本的な使い方は Rust製のPythonパ

                          さらなる進化を遂げた「uv」の新機能 | gihyo.jp
                        • WSL2でSakana AIを試してみる|noguchi-shoji

                          「進化的モデルマージにより日本語数学LLMとして構築したEvoLLM-JPは、数学のみならず、日本語の全般的な能力に長けている」らしいEvoLLM-JPを試してみます。 追記(2024/3/22) 10Bのモデルですが、torch_dtypeを"auto"からtorch.bfloat16に変更すると、推論のスピードが改善しました。 モデルEvoLLM-JPは、3種提供されています。今回は3つとも試します。 - 大規模言語モデル SakanaAI/EvoLLM-JP-v1-10B : MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-v1-7B :  MICROSOFT RESEARCH LICENSE TERMS SakanaAI/EvoLLM-JP-A-v1-7B : Apache License, Version 2.0 ※画像言語

                            WSL2でSakana AIを試してみる|noguchi-shoji
                          • LINE LLMをMacで動かす - きしだのHatena

                            先日、LINE(現LINEヤフー)のNLP Foundation Devチームから日本語言語モデルが公開されました。(以降LINE LLMと表記します) 36億パラメータの日本語言語モデルを公開しました Instruction Tuningにより対話性能を向上させた3.6B日本語言語モデルを公開します でも「NVIDIAのGPUがないと動かないんでしょ」と、試していない人も多いんではないでしょうか。 そこでこのブログでは、MacでLINE LLMを動かす手順をまとめたいと思います。 Windowsや他のLLMでもほぼ同じ手順で動かせるはずです。 次のような手順で進めます。 pythonインストール ライブラリインストール 1.7Bのサンプルコードを動かす チャットインタフェースで1.7Bを動かす CTranslateによる3.6B llama.cppによる3.6B Pythonインストール

                              LINE LLMをMacで動かす - きしだのHatena
                            • 【実践】PythonとOpenStreetMapで学ぶ経路システム開発入門 - uepon日々の備忘録

                              前回はGoogle Map APIを使用して開発を行いましたが、今回はOpenStreetMapを使用した似たようなことにチャレンジしてみようと思います。Pythonを使ってOpenStreetMapの経路検索URLを生成する方法ことを目的とします。 参考 uepon.hatenadiary.com オープンストリートマップ(OpenStreetMap)とは? オープンストリートマップ(英語: OpenStreetMap、OSM)は、自由に利用でき、なおかつ編集機能のある世界地図を作るオープンコラボレーションプロジェクトである。GPS機能を持った携帯機器、空中写真、衛星画像、他の地理情報システムからのデータをもとに作られていくのが基本だが、編集ツール上で道1本から手入力での追加も可能である。与えられた画像とベクトルデータセットはオープンデータベースライセンス(ODbL)1.0のもと再利用可

                                【実践】PythonとOpenStreetMapで学ぶ経路システム開発入門 - uepon日々の備忘録
                              • Python開発の新常識「uv」入門:仮想環境って何?から環境の共有まで|Yuya Enokida

                                最近、ADKを使ってpythonでAIエージェントの開発をしており、uvを使っています。その中で環境の共有を行うときにどうすればいいんだっけ?という小さな悩みから、自分の中での理解も深めるためにこの記事を書きました。 そもそも仮装環境とは?という初歩的なところから記載してるので、初めての方でも読みやすい内容になってるかと思います。 さて、本題ですが、 Pythonを使い始めると必ずぶつかるのが「環境構築」の壁です。「自分のパソコンでは動くのに、他の人の環境では動かない……」そんな悩みを一気に解決してくれる最新話題のツール、uv の使い方や環境の共有の注意事項等について解説します。 1. そもそも「仮想環境」はなぜ必要なのか?Pythonの開発では、プロジェクトごとに「仮想環境」を作るのが鉄則です。 例えば: プロジェクトA: 少し古いライブラリを使うので、Python 3.10が必要 プロ

                                  Python開発の新常識「uv」入門:仮想環境って何?から環境の共有まで|Yuya Enokida
                                • pyttsx3 による音声合成を試す|npaka

                                  pyttsx3 による音声合成を試したので、まとめました。 1. pyttsx3「pyttsx3」は、Pythonだけでローカル音声合成(TTS)を行うためのライブラリです。インターネット不要で、そのままテキストを読み上げできます。「pyttsx3」自体が音声を作っているわけではなく、OSのTTSエンジンをラップして使っています。 ・macOS : say(NSSpeechSynthesizer) ・Windows : SAPI5 ・Linuxe : Speak / Festival 2. pyttsx3 のインストール(1) Python仮想環境の準備。 python -m venv env source env/bin/activate(2) pyttsx3 のインストール。 pip install pyttsx3 3. pyttsx3 の使用(1) コードの作成。 ・hello_py

                                    pyttsx3 による音声合成を試す|npaka
                                  • とほほのOpenID Connect入門 - とほほのWWW入門

                                    目次 OpenID Connectとは 用語 OpenID Connectを試してみる OP側の準備 - AWS Cognito ユーザープールと最初のクライアントを作成する 作成されたパラメータを確認する ディスカバリ ユーザープールにユーザを追加する RP側の準備 - Pythonアプリ 実施 認証の流れ ログインする トークンをリフレッシュする トークンを失効させる ログアウトする IDトークンの形式 サンプルコード リンク OpenID Connectとは SSO(シングルサインオン)を実現するプロトコルのひとつです。 例えば、食べログ に Google アカウントでログインすることができますが、ここでも OpenID Connect が使用されています。 OIDC と略されることもあります。 類似の仕様に OpenID 2.0 がありましたが、OpenID 2.0 の進化系が O

                                    • WSL2でunslothのGPROトレーニングを試してみる|noguchi-shoji

                                      「DeepSeek-R1 の推論を自分のローカル デバイスで再現できるように」「わずか7GBのVRAMでアハ体験を」とのことなので、UnslothのGRPO(Group Relative Policy Optimizatin)トレーニングを試してみます。 今回は Phi-4 (14B)で試してみます。 You can now reproduce DeepSeek-R1's reasoning on your own local device! Experience the "Aha" moment with just 7GB VRAM. Unsloth reduces GRPO training memory use by 80%. 15GB VRAM can transform Llama-3.1 (8B) & Phi-4 (14B) into reasoning models. Blo

                                        WSL2でunslothのGPROトレーニングを試してみる|noguchi-shoji
                                      • uv is the best thing to happen to the Python ecosystem in a decade - Blog - Dr. Emily L. Hunt

                                        uv is the best thing to happen to the Python ecosystem in a decade Programming 23 October 2025 | Reading time: 6 minutes It’s 2025. Does installing Python, managing virtual environments, and synchronizing dependencies between your colleagues really have to be so difficult? Well… no! A brilliant new tool called uv came out recently that revolutionizes how easy installing and using Python can be. uv

                                          uv is the best thing to happen to the Python ecosystem in a decade - Blog - Dr. Emily L. Hunt
                                        • How to improve Python packaging, or why fourteen tools are at least tw

                                          There is an area of Python that many developers have problems with. This is an area that has seen many different solutions pop up over the years, with many different opinions, wars, and attempts to solve it. Many have complained about the packaging ecosystem and tools making their lives harder. Many beginners are confused about virtual environments. But does it have to be this way? Are the current

                                          • August 2023 (version 1.82)

                                            Update 1.82.1: The update addresses this security issue. Update 1.82.2: The update addresses these issues. Update 1.82.3: The update addresses this security issue. Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the August 2023 release of Visual Studio Code. There are many updates in this version that we hope you'll like, some of the key hi

                                              August 2023 (version 1.82)
                                            • 初心者でもできる!HuggingFaceモデルをGGUF形式に変換しOllamaで使う手順 - uepon日々の備忘録

                                              最近、AIのことは一応触ってはいますが、ちっともわからない状況です🫠 先日までOllamaを使用していたのでローカルLLMについてはなんとなく分かってきた様でもありという状況ですが、OllamaはGGUF形式のモデルが使えるとはいえ、すべてのモデルがGUFF形式で公開されているというわけはありません。 リポジトリ内には拡張子が無いモデルのファイルがあって…これ何?って感じです。なんとなく分かってきたのはHuggingFaceにで公開されているモデルはHFって呼ばれるモデルのようですが…。どこかに名言されてるんでしょうか🙇 ということで、HuggingFaceに公開されているHFモデルをなんとかしてOllamaでも使用可能なGGUF形式に変換できないかという内容でチャレンジしてみたいと思います。 (2024.09.11)Ollamaに作成したGGUF形式のモデルをpullする方法のリンク

                                                初心者でもできる!HuggingFaceモデルをGGUF形式に変換しOllamaで使う手順 - uepon日々の備忘録
                                              • とうとうRyzen + RADEONのAMD環境にもWindowsで動くStable Diffusionがきた - 徒労日記

                                                やっと来たAMD最初の一歩。DirectMLでAMD GPUを動かす 定期的にAMDxSD x Winのことを調べていますが、今回この記事に行き当たりました。Running Stable Diffusion on Windows with an AMD GPU Unfortunately, in its current state, it relies on Nvidia’s CUDA framework, which means that it only works out of the box if you’ve got an Nvidia GPU. Fear not, however. Because Stable Diffusion is both a) open source and b) good, it has seen an absolute flurry of activ

                                                  とうとうRyzen + RADEONのAMD環境にもWindowsで動くStable Diffusionがきた - 徒労日記
                                                • 画像生成AI「Stable Diffusion」をローカル環境で実行する - パソコン関連もろもろ

                                                  公開日:2022年8月23日 最終更新日:2023年1月16日 はじめに 環境構築 実行方法 学習済みパラメーター「sd-v1-4.ckpt」のダウンロード リポジトリのクローン 「sd-v1-4.ckpt」の移動 いよいよ実行 結果 つづき 動作確認できたその他の環境 CUDA 11.3.1 1 2 CUDA 11.6.2 1 2 VRAM不足に直面したら 更新履歴(2022年10月11日) バージョン2.1 はじめに最近「DALL-E2」や「Midjourney」など文章から画像を生成するAIが流行っています。 その一つが今回紹介する「Stable Diffusion」です。 「Stable Diffusion」の特徴はオープンソースで公開されていることであり、ローカル環境で実行可能です。 もちろんWeb上で簡単に試すことも可能で、こちらにデモンストレーションが公開されています。 hu

                                                    画像生成AI「Stable Diffusion」をローカル環境で実行する - パソコン関連もろもろ
                                                  • REST API用のファジングツール “RESTler” で始めるお手軽ファジング | IIJ Engineers Blog

                                                    IIJイノベーションインスティテュートの四谷です。普段はWeb API開発の生産性向上についての調査や開発を行っています。 今日はREST APIのテスト効率を改善するツール「RESTler」を紹介します。 RESTlerについて RESTlerはMicrosoft Researchが開発し、OSSとして公開しているREST API用のファジングツール(ファザー)です。 ファジングはネットワークプロトコルの実装等、もう少し下位レイヤーでの活用が主で、APIに対して実行できるファザーは数少ないのですが、その1つがRESTlerです。Microsoftでは実際にRESTlerを使用して、AzureやOffice365のバグを検出したそうです。 特長 RESTlerの最大の特長は、OpenAPIドキュメントとして記述されたAPI仕様さえあれば、自動的にテストケースが生成され、ファジングを実行でき

                                                      REST API用のファジングツール “RESTler” で始めるお手軽ファジング | IIJ Engineers Blog
                                                    • AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上)|まゆひらa

                                                      AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上) ※本記事のLoRAは、あまり性能が良いとは言えませんのでご了承ください(お試しで学習方法を学びたい、程度であれば現在でも有効ですが、古い記事なので操作方法が変わっている可能性があります)。別のLoRAについて記事を公開した際は、こちらでお知らせします。 ※DreamBoothのextensionが古いままの状態で本体をアップデートすると、本体が起動できなくなる場合があります。ご注意ください。 ※東北ずん子さんの公式画像を学習した例が、「5. 学習例」にあります。先にそちらをご覧いただいても結構です。 ※LoRAは多少の動作確認しかできておらず、適切な設定や詳細については分かりませんし、内容も誤り等があるかもしれません。ご了承く

                                                        AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上)|まゆひらa
                                                      • A 2025 Survey of Rust GUI Libraries

                                                        I did this in 2020 and then again in 2021, but I’m in the mood to look around again. Let’s look through Are We GUI Yet? and see what’s up these days. The task today is to have a text label and an input field that can change the text in the label. In React, for example, this is basically free: const Demo = () => { let [state, setState] = useState("Hello, world!"); return ( <div> <p>{state}</p> <inp

                                                        • 1時間でAMD ROCm環境を構築してStableDiffusionを走らせてみた | DevelopersIO

                                                          ここ12年ほど、グラフィックスボードはRadeonを使い続けている水島が大阪よりお届けします。 AMD Radeonをこれでもかと推す内容となっておりますが、単に個人的な好みですのでご承知いただければ幸いです。 昨今世間を賑わわせているいくつかの画像生成AIですが、中でもStable Diffusionはオープンソースソフトウェアとして公開され、自分のマシンで実行できることが話題となりました。ローカルで実行できれば順番待ちも利用費も気にせず、リソースの限り好きなだけ試行できます。必要なのは時間と電気代と、そう、グラフィックスボードです。 幸い、高騰していたグラフィックスボードの価格も落ち着いてきておりますので、価格を理由に購入を見合わせていた方もそろそろ動き出す頃合いではないでしょうか。 用意するもの AMD Radeon グラフィックスボード ではまず、最新のROCmが動作するグラフィク

                                                            1時間でAMD ROCm環境を構築してStableDiffusionを走らせてみた | DevelopersIO
                                                          • トレノキャンプ

                                                            1.venvとは? 2.仮想環境の作り方・venvの使い方 Windows、Mac、LinuxなどのOSに関係なく、Pythonでプログラムを作成する際は「仮想環境」を作成した上で 作業することが勧められています。 Python初学者向けに仮想環境が必要な理由、作成・実行方法などを、WindowsとMac両方のパターンでご紹介します。 1.venvとは? Pythonで仮想環境といえば標準モジュールの「venv」が有名です。仮想環境や「venv」についてご紹介します。 ①Pythonの仮想環境とは Pythonの「仮想環境」とは、システムにあるPythonの環境とは別の実行環境のことをいいます。 わざわざ仮想的な空間(エリア)を用意する目的としては、 ・システムのPython環境は変えたくない ・ひとつのシステム内で異なるPythonの環境(違うバージョンなど)を実行したい ・プロジェクト

                                                              トレノキャンプ
                                                            • October 2025 (version 1.106)

                                                              Release date: November 12, 2025 Update 1.106.1: The update addresses these issues Update 1.106.2: The update addresses these issues Update 1.106.3: The update addresses these issues Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Welcome to the October 2025 release of Visual Studio Code. This release brings significant updates across three key areas:

                                                                October 2025 (version 1.106)
                                                              • StableなL

                                                                最近気になるLoRAという学習方法。 DreamBoothである程度やりたいことはできていたけれど、もっと良い方法だとしたら試してみたい。 そう思って手をつけたけどなかなか上手くいきませんでした。 しかしKohya GUIというツールを知った結果ようやく成功。 その手順を共有します。 LoRAとDreamBoothの違い画像生成モデル、かつ利用者視点での話で書くと、 「短時間、低VRAMで絵柄の追加学習ができ、ファイルサイズも少ない学習手法」 です。あくまでDreamBoothとくらべて。 学習後のファイルLoRAの学習済みファイルは百数十MB。 これを画像生成時に追加で読み込ませ、アドインのような感覚で既存モデルの絵柄に追加要素を流し込めます。 その学習済みファイルはほぼ学習画像で構成されているようで、とても強く反映されます。そのためPromptで強度を調節しながら適用します。 凝縮され

                                                                  StableなL
                                                                • ローカル環境でHunyuanVideoを動かしてみる

                                                                  1. Mac Studio(M2 Ultra 128GB) 2. Windows 11 (メインメモリ 96GB + RTX 3060 12GB) 概要 今回はComfyUIを用いて、GGUF版HunyuanVideo の動画生成について備忘録的にまとめます。 下記の記事ではComfyUIを用いてFlux.1を動かしていますが、今回はプラスαで追加の設定が必要になります。 そのため、中級者向け以上の記事になっていると思います。 準備 下記を参考に環境を構築します。 ComfyUI ComfyUI の導入(導入済の場合はスキップ) $ git clone https://github.com/comfyanonymous/ComfyUI.git $ cd ComfyUI $ python -m venv venv $ source venv/bin/activate # Mac or Ubu

                                                                    ローカル環境でHunyuanVideoを動かしてみる
                                                                  • Ollamaと行くローカルLLMの道

                                                                    はじめに Ollamaはオープンソースで開発されているLLMの実行環境です。 このシステムはDockerなどのコンテナのようにモデルを扱うことで、モデルの公開や使用を非常に簡単に行うことができます。 使ってみる OllamaはWindows、macOS、Linux向けに提供されています。 公式サイトからダウンロードしてインストールしてみましょう。 モデル Ollamaはモデルをモデル名:タグの形式で識別します。 例えばGoogleのgemma3の4Bモデルはgemma3:4bのように表されます。 これらのモデル一覧は以下のページから確認することができます。 モデルを落としてきましょう これを実行するとgemma3:4bという名前の付いたモデルがダウンロードできます。 モデルページにはチャットテンプレートやライセンスの情報、パラメータなどが書かれています。 gemma3:4bのページを確認す

                                                                      Ollamaと行くローカルLLMの道
                                                                    • MCP の クイックスタート (1) - PythonによるMCPサーバの開発|npaka

                                                                      「Python」による「MCPサーバ」の開発をまとめました。 ・MCP Python SDK 1.9.4 ・For Server Developers - Model Context Protocol 1. MCPサーバの開発のクイックスタートシンプルな米国の天気予報の「MCPサーバ」を構築し、ホストである「Claude Desktop」に接続します。 「MCPサーバ」は、主に次の 3 種類の機能を提供できます。 ・リソース : クライアントが読み取ることができるファイルのようなデータ (API レスポンスやファイルの内容など) ・ツール : LLM から呼び出せる関数 (ユーザーの認可が必要) ・プロンプト : ユーザーが特定のタスクを達成するのに役立つ、事前に作成されたテンプレート 今回は、「get_forecast」「get_alerts」という2つのツールを準備します。 2. プロ

                                                                        MCP の クイックスタート (1) - PythonによるMCPサーバの開発|npaka
                                                                      • 画像生成AIツール『Stable diffusion web UI』インストール手順まとめ【保存版】| 自由生活情報サイト!コスパルタイム

                                                                        画像生成AI(人工知能)ツール『Stable diffusion web UI』のインストール手順、基本的な使い方、日本語化、エラー解決、無料で利用する方法、操作パネル(UI)概要、LoRaの使い方、プロンプト、スプリクト等を解説します。 ◆『SD-WebUI拡張機能コントロールネット&オープンポーズエディターの使い方』 『Stable diffusion web UI』の超おすすめ拡張機能『コントロールネット&オープンポーズエディター』の実用的な使い方を写真&YouTube動画で解説。↓ SD-WebUI拡張機能コントロールネット&オープンポーズエディターの使い方AI画像生成ツール『Stable diffusion web UI』用の超おすすめ拡張機能『コントロールネット&オープンポーズエディター』の実用的な使い方を写真付き説明&YouTube動画で詳しく解説します💕 画像生成AIツー

                                                                          画像生成AIツール『Stable diffusion web UI』インストール手順まとめ【保存版】| 自由生活情報サイト!コスパルタイム
                                                                        • 【海外記事紹介】uvはここ10年のPythonエコシステムの中でも最高のプロダクトだ

                                                                          10月30日、Emily Space氏が「uv is the best thing to happen to the Python ecosystem in a decade」と題した記事を公開した。この記事では、Pythonのインストールや仮想環境の管理、依存関係の同期といった長年の課題を一変させる新ツール「uv」について詳しく紹介されている。以下に、その内容を紹介する。 Python環境管理を一新する「uv」 「uv」は、Pythonツール群を開発するスタートアップAstralによって開発されたオープンソースの新ツールである。同社は高性能リンター「Ruff」でも知られており、今回のuvも同様にRustで実装された高速なPython管理ツールだ。 uvは次のような機能を備えている。 Pythonのバージョンを自動でインストール パッケージのインストールと依存関係の解決 仮想環境の作成と管

                                                                            【海外記事紹介】uvはここ10年のPythonエコシステムの中でも最高のプロダクトだ
                                                                          • RetNetによる学習・評価・推論

                                                                            諸注意 本記事のコードブロック内のコマンドは、基本的にubuntu 18.04.05 on Windowsターミナル(以下、wsl)上で実行しています。 本記事の誤記や、より良い方法などがありましたら、コメント欄にてご指摘ください。 環境構築 こちらの通りに、wslとpyenv-winの競合を解消し、wsl用のpyenvをinstallします 以下のコマンドを実行し、本記事用のフォルダとpython仮想環境を構築します mkdir RetNetTutorial cd RetNetTutorial mkdir .wsl_env cd .wsl_env pyenv local 3.10.4 python -V # 3.10.4 # 仮想環境構築 python -m venv ./ # pipを新しくしておく cd bin # 仮想環境起動 source activate cd ../../ #

                                                                              RetNetによる学習・評価・推論
                                                                            • ACE-Stepで始めるAIローカル作曲+音楽生成APIサーバの動かし方|めぐチャンネル

                                                                              今週、ACE-Stepという音楽生成AIが発表されました。早速、インストールして使ったのと、音楽生成AIサーバとしてアプリからも使いたいのでAPIも使えるようにしました。 ACE-Stepとは詳細は以下を参照ください。ボーカル付きの音楽を超高速で生成出来ます。 インストールGithubのREDMEに従ってインストールします。GPUのVRAM専有容量は概ね14Gでした。16GのVRAMがあるGPUなら容易に動くはずです。 git clone https://github.com/ace-step/ACE-Step.git cd ACE-StepPython: Version 3.10以降とCondaか venvを使います。どちらを使うかは好み次第です。READMEには両方書いてあります。以下、venvの場合です。上記に続けて以下を行うとACE-Stepフォルダー内に仮想環境が作成されます。

                                                                                ACE-Stepで始めるAIローカル作曲+音楽生成APIサーバの動かし方|めぐチャンネル
                                                                              • GPUをレンタルしてJ-Moshiを使ってみた

                                                                                最近話題になっている音声対話モデル「J-Moshi」が、日本語で人間のように自然な会話ができそうです。 モデルはHFに公表されています。 スペックに関して、24GB以上のVRAMを搭載したGPUが必要のようです。 While we hope that the present codebase will work on Windows, we do not provide official support for it. We have tested the MLX version on a MacBook Pro M3. At the moment, we do not support quantization for the PyTorch version, so you will need a GPU with a significant amount of memory (24GB)

                                                                                  GPUをレンタルしてJ-Moshiを使ってみた
                                                                                • September 2022 (version 1.72)

                                                                                  Downloads: Windows: x64 Arm64 | Mac: Universal Intel silicon | Linux: deb rpm tarball Arm snap Update 1.72.1: The update addresses these security issues. Update 1.72.2: The update addresses these issues. Welcome to the September 2022 release of Visual Studio Code. There are many updates in this version that we hope you'll like, some of the key highlights include: Tool bar customization - Hide/show

                                                                                    September 2022 (version 1.72)