エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ローカルLLMで試行錯誤してみた話 - ハウテレビジョンブログ
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ローカルLLMで試行錯誤してみた話 - ハウテレビジョンブログ
はじめに こんにちは。外資就活ドットコム 新規開発チームのでエンジニアをしている伊達です。新規開発... はじめに こんにちは。外資就活ドットコム 新規開発チームのでエンジニアをしている伊達です。新規開発チームは新技術を外資就活ドットコムにガンガン実装するチームと言っても過言ではありません。そんなチームに所属する私ですが、今回はローカルLLMを使ってみた話をまとめたいと思います。 このブログ執筆の段階ではまだまだ試行錯誤中なところもあるのですが、試して良かったことなんかも書いていこうと思います。 環境構築 データとしてJSONファイルを用意し、それをPythonで読み取ってローカルLLMに投げるというようなことをしました。まずは、ローカルLLMをPythonで扱えるようにするまでの環境構築をまとめていきます。 ローカルLLM候補 Ollama: インストールが簡単で使い勝手の良いオープンソース。CUIに慣れているならシンプルでお手軽なツール。 LM Studio: Windows PCでも使え