並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 34 件 / 34件

新着順 人気順

LM Studioの検索結果1 - 34 件 / 34件

  • ローカルLLM実行環境LM Studio、企業・組織での商用利用を無料に | gihyo.jp

    ローカルLLM実行環境LM Studio⁠⁠、企業⁠⁠・組織での商用利用を無料に Element Labsは2025年7月8日、同社が提供しているローカルLLM実行環境「LM Studio」を企業利用においても無料で使えるように方針を変更したことを発表した。 LM Studio is free for use at work - LM Studio Blog LM Studio is now free for use at work. Starting today, it no longer necessary to get a separate license to use LM Studio for work. No need to fill out a form or contact us. You and your team can just use the app! LM Stu

      ローカルLLM実行環境LM Studio、企業・組織での商用利用を無料に | gihyo.jp
    • MacでLocalでLLMを走らせるならLM Studioが楽。 - Qiita

      MacでLocal LLM そこそこRAMの大きなMacbook proが手に入ったので、ローカルでのLLM実行を試すことにした。 しかし、MacのGPUを有効化させることのできるローカル環境を整えるまでに、思いのほか苦労したので、メモとして記しておく。 とりあえず、以下の3つの選択肢を試した。 open interpreter text-generation-webui LM Studio で、結局のところ現状まともに動作してくれたのは、LM Studioだけだったのだが、それぞれの所感について示しておく。 1: open interpreter open interpreterそのもの説明については、Qiitaにもいくらでも記事があるのでここでは省略する。 例えば以下の記事など。 https://qiita.com/ot12/items/d2672144b914cb6f252f htt

        MacでLocalでLLMを走らせるならLM Studioが楽。 - Qiita
      • LM Studio - Discover, download, and run local LLMs

        🤖 • Run LLMs on your laptop, entirely offline 📚 • Chat with your local documents (new in 0.3) 👾 • Use models through the in-app Chat UI or an OpenAI compatible local server 📂 • Download any compatible model files from Hugging Face 🤗 repositories 🔭 • Discover new & noteworthy LLMs right inside the app's Discover page LM Studio supports any GGUF Llama, Mistral, Phi, Gemma, StarCoder, etc model

          LM Studio - Discover, download, and run local LLMs
        • 商用利用も無料、サーバに依存しないローカルAIを作る「LM Studio」入門

          無料で自分だけのAIを作る「LM Studio」入門 ChatGPTやGeminiなどのLLM(大規模言語モデル)は、翻訳や企画案の相談、文章の要約などビジネスシーンでも大いに役立つツールとなっている。しかし、個人情報や社内情報などを扱いたい場合は、情報漏えいなどのセキュリティ面に不安を感じることも多い。そこで、商用利用も無料になったLM Studioをインストールして、ローカルLLMを実行してみよう。ローカルで実行するためセキュリティやコストの心配は不要だ。 急速に進化した生成AI、特にChatGPTやGeminiに代表されるLLM(大規模言語モデル)は、翻訳や企画案の相談、文章の要約などビジネスシーンでも大いに役立つツールとなっている。 しかし、無料版では制限が多く、一方で月額の使用料はいずれも20ドル程度と少し高い。また、個人情報や社内情報などを扱いたい場合は、情報漏えいなどのセキュ

            商用利用も無料、サーバに依存しないローカルAIを作る「LM Studio」入門
          • ローカルAIツール「LM Studio」が全面無償化 ~企業や組織でも無料で利用可能に/セルフサービス「Teams」プランを今月末にも導入へ

              ローカルAIツール「LM Studio」が全面無償化 ~企業や組織でも無料で利用可能に/セルフサービス「Teams」プランを今月末にも導入へ
            • 【Mac Info】 MacでローカルLLMが動く!「LM Studio」で大規模言語モデルを使ってみよう

                【Mac Info】 MacでローカルLLMが動く!「LM Studio」で大規模言語モデルを使ってみよう
              • ローカルLLM実行アプリ「LM Studio」業務利用を無料化 商用ライセンス不要に

                ローカルLLMのフロントエンドアプリ「LM Studio」を提供する米Element Labsは7月8日(現地時間)、企業や組織での「LM Studio」を無料化すると発表した。 個人利用は従来から無料だったが、企業利用では同社への連絡と別途ライセンス取得が必要だった。商用ライセンスの取得手続きを廃止し、手軽に業務利用できるようにする。 LM Studioは、ユーザーが自身のマシン上でLLM実行できるソフト。2023年5月のローンチ以来、世界で数百万のダウンロードがあり、数十の企業に導入されているという。 同社によると、ユーザーの多くは個人利用から始め、その後職場での利用したいと考えるが、商用ライセンスの取得が障壁になっていた。「家庭でも職場でも、ローカルAIをアクセスしやすくするため」業務利用を無償化したという。 シングルサインオンやMCPのアクセス制御など高度な機能が必要な場合は有償の

                  ローカルLLM実行アプリ「LM Studio」業務利用を無料化 商用ライセンス不要に
                • LM Studio を使ってローカルでLLMを実行する方法 - Insight Edge Tech Blog

                  こんにちは、Insight Edgeでリードデータサイエンティストを務めているヒメネス(Jiménez)です!前回の投稿から丸1年経ちましたが、改めて皆さんと知識共有できればと思います。今回は、話題のOpen Source LLM(Llama, Mistral, DeepSeek等)をローカルで実行する方法を紹介します。 目次 LM Studioの紹介 LLMをローカルで実行 準備 Pythonプログラムから実行 単体実行 OpenAIを通した実行 活用例:討論する哲学者 哲学者の定義 討論内容の定義 討論の実施 討論の要約 まとめ LM Studioの紹介 LM Studioは、ローカル環境で大規模言語モデル(LLM)を簡単に実行できるプラットフォームです。GUIベースで操作できるため、エンジニアだけでなく、非エンジニアでも手軽に試すことができます。 【特徴】 直感的なUI:モデルの管理

                    LM Studio を使ってローカルでLLMを実行する方法 - Insight Edge Tech Blog
                  • GPU非搭載ノートPCでもコマンド不要で各種言語モデルの性能を試せる実行環境「LM Studio」レビュー

                    文章生成AIの研究開発が急速に進んでおり、無料で使える大規模言語モデル(LLM)も数多く公開されています。しかし、LLMの動作を実際に試すには高性能なハードウェアや複雑な環境構築が必要なことが多いため、最初から諦めている人も多いはず。無料で公開されている「LM Studio」を使えば、一般的な性能のPCでもコマンド不要で気軽にLLMの動作させられるとのことなので、実際にLM Studioを使ってLLMを使う手順を確かめてみました。 LM Studio - Discover, download, and run local LLMs https://lmstudio.ai/ ◆LM Studioのインストール LM StudioはWindows版とmacOS版が存在するほか、Linux向けのベータ版も存在します。Windowsで使う場合の必要条件は「AVX2に対応したCPU」のみ。近年販売さ

                      GPU非搭載ノートPCでもコマンド不要で各種言語モデルの性能を試せる実行環境「LM Studio」レビュー
                    • 準備0でローカルLLMを動かす(LM Studio)

                      はじめに Metaが新しく公開したLLMの性能が他の最新モデルに匹敵する性能となっており、ベンダーから提供されるAPIを使わずに、自分のPC上でLLMを動かしたい欲求が高まりました。 ローカルでLLMを動かすメリットとして、以下が考えられます。 従量課金制のAPIの費用を気にしなくて良い (※PCの電気代はかかるが) 個人情報を第三者に送信しないので、プライバシー面を考慮する必要がない LM Studio ローカルでLLMを動かす懸念として、環境構築など準備に時間がかかることが一つ挙げられます。 そこで、便利なツールを探していたところ、LM Studioを発見しました。 このツールは、GUI上でLLMの取得から起動までをボタンクリックで進めることができます。 さらに、チャットのUIやローカルサーバの起動・Pythonコード例の提示までしてくれる便利ツールとなっていました。 操作手順 使用し

                        準備0でローカルLLMを動かす(LM Studio)
                      • 【Ubuntu日和】 【第62回】LM StudioでPythonのGUIコードを生成させたら殊の外優秀だった

                          【Ubuntu日和】 【第62回】LM StudioでPythonのGUIコードを生成させたら殊の外優秀だった
                        • インターネット接続不要でAIモデルをローカル実行できる「LM Studio」にMCPサーバーへの接続機能が追加される

                          「LM Studio」は、一般的な性能のPCでも気軽にLLMを動作させられるソフトウェアです。2025年6月25日にLM Studioのバージョン0.3.17が公開され、Model Context Protocol(MCP)がサポートされました。 MCP in LM Studio | LM Studio Blog https://lmstudio.ai/blog/lmstudio-v0.3.17 「LM Studio」の導入手順と基本的な使い方は、以下の記事を見るとよく分かります。 GPU非搭載ノートPCでもコマンド不要で各種言語モデルの性能を試せる実行環境「LM Studio」レビュー - GIGAZINE LM Studio 0.3.17に追加されたMCPとは、Anthropicが2024年11月に発表した「生成AIと他のシステムを双方向接続させるためのオープン標準」です。MMCPサー

                            インターネット接続不要でAIモデルをローカル実行できる「LM Studio」にMCPサーバーへの接続機能が追加される
                          • 【サーバー編】LM Studioで手元のPCをAIサーバーに!ローカルAPI活用術 - たねやつの木

                            こんにちは、たねやつです。 これまでの記事で、LM Studioを使ってローカルLLMとチャットする方法や、モデルの設定について解説してきました。 今回は、LM Studioが持つ非常に強力な機能、「ローカルAPIサーバー」に焦点を当てます。この機能を使いこなせば、自作のプログラムや他のツールとローカルLLMを連携させ、AIを活用した独自のワークフローを構築できます! 前の記事 この記事でできること ローカルサーバー機能とは? サーバーの起動と設定 curlでAPIを叩いてみる Pythonから接続する 他のツールとの連携 最後に 次の記事 前の記事 この記事でできること LM Studioのローカルサーバー機能が理解できる ローカルAPIを起動し、テストできるようになる PythonプログラムからローカルLLMを呼び出せるようになる 他のツールとの連携の可能性がわかる ローカルサーバー機

                              【サーバー編】LM Studioで手元のPCをAIサーバーに!ローカルAPI活用術 - たねやつの木
                            • Copilot+ PCやハイスペックマシンでお手軽ローカルLLM「LM Studio」を試してみた UIがかなり使いやすいぞ DeepSeekの小型モデルも動く

                              Copilot+ PCやハイスペックマシンでお手軽ローカルLLM「LM Studio」を試してみた UIがかなり使いやすいぞ DeepSeekの小型モデルも動く さまざまな話題を巻き起こしている中国の「DeepSeek-R1」だが、その驚きの一つはモデルの公開、そしてその中にはハイスペックなデスクトップPCやノートPCでも工夫次第で実行できる小型なモデルも含まれていたことだった。 LLMのハイエンドはビッグテック企業がサービスやAPI越しに提供している超巨大モデルではあるものの、ローカルで実行できるサイズのLLMにも実はいろいろな変化が起こりつつある。 そんな変化を手軽に実感できるアプリとして今回紹介したいのが「LM Studio」だ。

                                Copilot+ PCやハイスペックマシンでお手軽ローカルLLM「LM Studio」を試してみた UIがかなり使いやすいぞ DeepSeekの小型モデルも動く
                              • 「EmEditor」v25.2が正式版に ~AI対応を拡充、「DeepSeek」「LM Studio」にも対応/Windows 7および32bit版のサポートは終了

                                  「EmEditor」v25.2が正式版に ~AI対応を拡充、「DeepSeek」「LM Studio」にも対応/Windows 7および32bit版のサポートは終了
                                • LM StudioでDeepSeekをローカル環境で動かす手順

                                  大規模言語モデル(LLM)の世界では、Metaの「Llama」やOpenAIの「GPT」ファミリーが有名ですが、DeepSeek V3はそれらに匹敵、あるいは上回る性能を目指すモデルとして登場し注目を集めています。この記事では、DeepSeek V3の日本語での使い方や実力を紹介していきます。 DeepSeek R1をローカル環境で構築する手順 ①LM Studioのインストール 公式サイトから、使用しているオペレーティングシステム(Windows、macOS、Linux)に対応したインストーラーをダウンロードします。 ダウンロードしたインストーラーを実行し、画面の指示に従ってインストールを完了させます。 ②DeepSeek R1モデルのダウンロード LM Studioを起動し、左側の「探索」アイコン(虫眼鏡のマーク)をクリックします。 検索バーに「DeepSeek R1 Japanese

                                    LM StudioでDeepSeekをローカル環境で動かす手順
                                  • LM Studio で gpt-oss を試す|npaka

                                    「LM Studio」で「gpt-oss」を試したのでまとめました。 1. LM Studio「LM Studio」はLLMをWindows/Mac/Linuxで簡単に実行できるアプリケーションです。 2. gpt-oss「gpt-oss」は、OpenAIが開発したオープンウェイトのLLMです。 ・gpt-oss-20b 一般的なローカルPC環境向け。 メモリ16GB、ストレージ14GB。 ・gpt-oss-120b 高性能GPUを備えたハイエンド環境向け。 メモリ80GB、ストレージ65GB。 3. LM Studio で gpt-oss を試す「LM Studio」で「gpt-oss」を試す手順は、次のとおりです。 (1) LM Studioのサイトからインストーラをダウンロードしてインストール。 (2) 「LM Studio」の実行すると、「Download gpt-oss-20b」

                                      LM Studio で gpt-oss を試す|npaka
                                    • LM StudioとOllamaで動くDeepSeek R1の力を体験 - Qiita

                                      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 推論において優れた性能を発揮し、オープンソースであるため無料のAIを探しているなら、新しく立ち上げられたDeepSeek R1は素晴らしい選択です。これはGPT-4、o1-mini、Claude 3.5などのモデルと競争し、それを上回っています。テストした結果、非常に良いと感じました! Visual Studio CodeでGitHub Copilotに似たコードエージェントとして直接使用し、コストをかけずに使用したい場合、LM Studio、Ollama、Janなどのツールを使ってその方法をお見せします。 最近なぜDeepS

                                        LM StudioとOllamaで動くDeepSeek R1の力を体験 - Qiita
                                      • Docker MCP ToolkitでLM Studioが利用可能に | gihyo.jp

                                        Dockerは2025年7月21日、Docker MCP Toolkitが、MCPクライアントとしてLM Studioをネイティブにサポートすることを発表した。 🚀 LM Studio now works out of the box with the Docker MCP Toolkit! Skip the messy configs—connect MCP servers in one click to LM Studio. 🛠️ Build agents easily & securely with Docker. 🔗 https://t.co/EeC5IIzK7l #DockerAI #MCP #DevTools #LMStudio — Docker (@Docker) July 21, 2025 Docker MCP Toolkitは、コンテナ化されたMCPサーバーとAIエ

                                          Docker MCP ToolkitでLM Studioが利用可能に | gihyo.jp
                                        • LM Studioの使い方|Masayuki Abe

                                          LM Studioとは、ローカル環境で、言語モデルを探してダウンロードしたり、言語モデルを利用して会話が出来たり、言語モデルサーバとしての機能も果たします。 所感は、GUIベースで操作できるので、プログラミングに馴染みの無い人や、言語モデルを試してみたい人には手軽に設定することができるので有益なツールだと思います。 今回は、LM StudioをWindows PCにインストールして使う方法を纏めてみました。 LM Studioのインストール下記のページからダウンロードしてきます。 上記ページの"Download LM Studio for Windows"をクリックしてダウンロードし、Windows PCにインストールします。 LM Studioの初期画面 言語モデルのダウンロード次に、OpenHermes 2.5と入力し、Goをクリックします。 検索画面 検索結果が出力されます。 次に、

                                            LM Studioの使い方|Masayuki Abe
                                          • ローカル環境でLLMを動かすツール – OllamaとLM Studioの比較

                                            OllamaとLM Studioの比較 OllamaとLM Studioは、ローカル環境で大規模言語モデル(LLM)を実行するためのツールですが、以下の点で特徴が異なります。 ユーザーインターフェースと操作性 Ollama: コマンドラインベースの操作が中心で、シンプルなインターフェースを提供しています。 LM Studio: グラフィカルユーザーインターフェース(GUI)を備えており、モデルの検索やダウンロード、チャット機能などを直感的に操作できます。 モデルの互換性と選択肢 Ollama: 主要なオープンソースのLLMモデルをサポートしています。 LM Studio: Hugging Faceなどから多様なモデルを検索・ダウンロードでき、幅広いモデルに対応しています。 プラットフォーム対応 Ollama: macOS、Linux、Windows(プレビュー版)に対応しています。 LM

                                              ローカル環境でLLMを動かすツール – OllamaとLM Studioの比較
                                            • Macで簡単にローカルLLMを試す(OllamaとLM Studio)

                                              はじめに 自分のPCで動かすLLMはなんといっても無料で回数制限なく使えるのが良いですね。 MetaのLlama 3やGoogleのGemma 2などのLLMを動かすには、LM StudioやOllamaが簡単で便利です。今回は、それぞれの使い方を紹介しますので、お好きな方で試してみてください。 個人的には、新しいモデルを試す時はLM Studioで、普段使うときはOllamaという感じに使い分けています。 環境 Mac mini Apple M2 メモリ 16GB LM Studio 環境構築、モデルのダウンロード、チャットしてみる、というところまでを簡単に実現してくれるのはOllamaと同じですが、LM Studioでは、HuggingFaceにあるLLMモデルを検索してダウンロードできます。検索結果では自分のPCスペックで実行できそうかも色別に表示してくれます。UIで簡単にできるのは

                                                Macで簡単にローカルLLMを試す(OllamaとLM Studio)
                                              • GitHub - ozgrozer/ai-renamer: A Node.js CLI that uses Ollama and LM Studio models (Llava, Gemma, Llama etc.) to intelligently rename files by their contents

                                                You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                  GitHub - ozgrozer/ai-renamer: A Node.js CLI that uses Ollama and LM Studio models (Llava, Gemma, Llama etc.) to intelligently rename files by their contents
                                                • GitHub - lmstudio-ai/lms: LM Studio CLI

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - lmstudio-ai/lms: LM Studio CLI
                                                  • Gemma3(+ LM Studio)触ってみた

                                                    それぞれ動かすのに必要なメモリサイズは以下の通り。 今動かしているのはm2 mac/16GBなので32bitで動かすなら4Bモデルすらメモリに乗らないですね。 実行 Gemma3 4Bモデルをロードしました。 LMStudioは右下にメモリとCPU使用量が出るのがいいですね。 今回利用したのはQ4_K_Mの4bitなので上記の表だと3.4GBくらいのメモリ消費想定。 LM Studioの表示では3.1GBなのでほぼ想定通りでしょうか。 モデルダウンロード時に量子化の種類を選べるのですが、使っているPCに不釣り合いな場合は警告が出ているのも親切。 実行結果1 gemma3のモデルの種類を教えてください。加えてそのモデルごとの強みや使い分けの方法も教えてください。 書いてあることが大嘘なのは置いておくとして、日本語としては割と真っ当なものが十分な速度で出力されました。CPU使用率も10%前後。

                                                      Gemma3(+ LM Studio)触ってみた
                                                    • 〈簡単!〉DeepSeek R1をローカルPCで動かす方法(LM studio) - デマこい!

                                                      DeepSeek R1は、中国のITスタートアップDeepSeek社の開発したLLMです。OpenAI o1並みの性能を持つとされています。特筆すべきは、OpenAIよりもオープンだということ。AIのモデルデータが、MITライセンスで提供されています。つまり、商用利用可能ってことだ。 DeepSeek R1の蒸留モデル(サイズを小さくした代わりにちょっとおバカになったモデル)なら、ローカル環境のパソコンでも動かすことができます。 DeepSeek-R1 Llama 8B、俺のパソコンで動かすとこのくらいの速さで回答してくれる(※倍速なし)。自分のパソコンのローカル環境でLLMが動いているってだけで、ちょっと感動があるな…? pic.twitter.com/cvRJ9E7Eqs — Rootport🔥 (@rootport) 2025年1月21日 この記事では、「LM studio」という

                                                        〈簡単!〉DeepSeek R1をローカルPCで動かす方法(LM studio) - デマこい!
                                                      • Windows + GPUでローカルLLMを動かしてみる(LM Studio, Obsidian Copilot, VSCode拡張 continue)

                                                        ollama 今どきのサイトらしからぬランディングページで何も説明しない系のサイトなので何もわからん。 llama.cpp LlamaをPC上で実行するための実行環境。実行のためにはソースをDLしてビルドする必要があり、手順がやや面倒。Llama以外のモデルも実行可能 ollama これもローカルLLMの実行環境。バックエンドでllama.cppを利用している。インストールや実行が簡単なので、今回はこちらを利用。 なるほど。llama.cppは推論の実行エンジンであって、モデルのダウンロードや実際にチャットのテキストを送るなどの処理を行うのは別のツールが担当することになっていて、ollamaはその1つという立ち位置か。 ollamaはLLMの実行環境ではあるけどGUIは持っていないので、よくあるチャットUIから呼び出したければまた別のollama-uiというChrome拡張などを入れる必要

                                                          Windows + GPUでローカルLLMを動かしてみる(LM Studio, Obsidian Copilot, VSCode拡張 continue)
                                                        • MCP in LM Studio

                                                          LM Studio 0.3.17 introduces Model Context Protocol (MCP) support, allowing you to connect your favorite MCP servers to the app and use them with local models. LM Studio supports both local and remote MCP servers. You can add MCPs by editing the app's mcp.json file or via the new "Add to LM Studio" Button, when available. Also new in this release: Support for 11 new languages, thanks to our communi

                                                            MCP in LM Studio
                                                          • 多分猿でも使えるローカルLLM「LM Studio」(Windows & Radeon環境も可)

                                                            まえがき ローカルでChatGPT的なの使いたいと思ったことはありませんか?私はあります。 かなり前に導入しようと調べたことはあるのですが、Win & ラデ環境は例によってアレで結局投げました。 が、現在はLM Studioを使えば導入・利用難易度がかなり下がっています。 私も実際に導入してみたので、今回はLM Studioをとりあえず使えるようにするまでの記事になります。 導入方法 以下が配布元URLです。執筆時点でのバージョンは0.3.5でした。 まあ見たまんまなのですが、画像赤線部からWindows版をDLします。 保存したインストーラーを実行すれば、自動でCドライブ内にLM Studioがインストールされたのち、ソフトが立ち上がります。 …はい。Cの固定フォルダ以外にインストールできません。 インストーラー形式のWin対応LLMは大体こうです。 モデルデータの保存場所だけは後から別

                                                              多分猿でも使えるローカルLLM「LM Studio」(Windows & Radeon環境も可)
                                                            • 中国発の高性能AI「DeepSeek-R1」はCopilot+ PCで動くのか? 「LM Studio」で挑戦/小型化された蒸留モデルで独特な思考プロセスを体験【使ってわかるCopilot+ PC】

                                                                中国発の高性能AI「DeepSeek-R1」はCopilot+ PCで動くのか? 「LM Studio」で挑戦/小型化された蒸留モデルで独特な思考プロセスを体験【使ってわかるCopilot+ PC】
                                                              • 業務利用でも無料に Element LabsがローカルAIツールキット「LM Studio」の利用規約を変更

                                                                Element Labsは、2023年5月にLM Studioをリリースした直後に、業務利用に商用ライセンス取得を義務付ける利用規約を設定した。だが、その後約2年が経過し、商用ライセンス要件が職場でのLM Studio導入の高い障壁となっていると考え、今回の措置を講じたと同社は説明している。 Element Labsでは、LM Studioを「新しいオープンソースモデルを試す最初の場」と位置付けている。アプリケーション本体に加え、ローカルAIアプリケーションを構築できる「LM Studio SDK」、LM StudioやこのSDK(ソフトウェア開発キット)で作成したものを共有できるWebページ「LM Studio Hub」も提供している。企業や組織がチーム用の「パブリックHub組織」を作成し、職場などでLM Studioと組み合わせて無料で利用する方法も「近いうちに導入する」としている。

                                                                  業務利用でも無料に Element LabsがローカルAIツールキット「LM Studio」の利用規約を変更
                                                                • LM Studioとは?機能・ローカルLLMの使い方・最新アップデートを紹介 | AI総合研究所

                                                                  LM Studioとは、ローカルでLLMを実行・管理できるGUIツールです。使い方・機能・最新情報をわかりやすく解説します。

                                                                  • 一家に一台Anneliちゃん!LM Studio × AivisSpeechで簡易AIコンパニオンを作ろう

                                                                    デモ 先にデモをお見せします。ブラウザ上でテキストを入力すると、Anneliが応答してくれます。 また、記事後半にはおまけとして音声認識版のデモを用意してます。 ローカルLLMってロマンありません? 世の中にはOpenAIやAnthropicなどAIで有名な会社が多くあります。企業が提供するAIを使うのが良いのは分かっていますが、ネットワーク環境がないと使えませんし、APIの制限もあります。 前回LM Studioを導入してみて、ネットワークを介さずにLLMが動く環境に少し感動しました。ローカルLLMの主なメリットは以下だと考えます。 コストの心配なし オフラインで動作 プライバシーの完全な保護 本記事では完全ローカル環境で動作するAnneliAIを目指します。 LM Studioとは LM Studioは、ローカル環境でLLMを実行できるツールで、OpenAIライクなインターフェースを持

                                                                      一家に一台Anneliちゃん!LM Studio × AivisSpeechで簡易AIコンパニオンを作ろう
                                                                    • 【入門】LM Studioの使い方 - ローカルLLMの導入からDify連携まで|ChatGPT研究所

                                                                      はじめにChatGPT などの生成 AI は、多くがクラウド上の大規模言語モデル(LLM)で動いています。 近ごろは、LLM を自分の PC で動かす「ローカル LLM」も注目されています。ローカルなら通信せずに使えるので、プライバシーを守れ、従量課金も気になりません。 米 Element LabsのLM Studioを使えば、ご自身のPCで、手軽にローカル LLM を試せます。本記事では LM Studio の特徴と料金、導入手順、さらにDifyとの連携方法をわかりやすく紹介します。 LM StudioとはLM Studioは、大規模言語モデル(LLM)を手軽に試せるツールです。プログラミングの知識がなくても、GUIベースの操作で文章生成やチャット対話ができます。 特に嬉しい点は、高性能な専用GPUがなくてもローカルLLMを実行できることです。また、GUIによる直感的な操作でオープンソー

                                                                        【入門】LM Studioの使い方 - ローカルLLMの導入からDify連携まで|ChatGPT研究所
                                                                      1