エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【ローカルVLM】Qwen2-VLをOpen WebUIで利用する【Visionモデル】|Catapp-Art3D
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【ローカルVLM】Qwen2-VLをOpen WebUIで利用する【Visionモデル】|Catapp-Art3D
はじめにこの記事は視覚能力をもたせたLLMであるQwen2-VL(2B)をOllama Open WebUIで利用する方法の記録... はじめにこの記事は視覚能力をもたせたLLMであるQwen2-VL(2B)をOllama Open WebUIで利用する方法の記録です。動作環境は、 Windows 11 + WSL2 + Open WebUI(docker版) Qwen2-VLはWLS2上での動作です システムメモリ64GB←Flux.1が辛いので、32GBから増やしました RTX 3060 12GB です。GPUメモリは12GBでも足りないぐらいですが、システムメモリは32GBでも問題ないと思います。 Qwen2-VLとは、中国Alibaba社が開発しているローカルで利用できる日本語対応のVLMで、商用クラウドサービスに匹敵する最高性能モデルのひとつです。ただし、現状はollamaでは利用できないので、OpenAI API互換で動作させます。 Open WebUIの詳細な導入方法は下記事で紹介しています 何ができるのか?