エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
MLflow Prompt Engineering UIをDocker Composeでローカルに構築 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
MLflow Prompt Engineering UIをDocker Composeでローカルに構築 - Qiita
LLMOpsにはいくつかのサービスがありますが、クラウド上で動作するものが多いです。本稿ではローカルで... LLMOpsにはいくつかのサービスがありますが、クラウド上で動作するものが多いです。本稿ではローカルで動かせるOSSであるMLflowのPrompt Engineering UIを構築してみます。 構築にはDockerでPython+Poetryでの開発環境が構築できていることを前提とします。詳細は下記拙稿などを参考にしてください。DockerやPoetryを使っていない場合は適宜読み替えてください。 想定環境 Windows 11 WSL2 Python 3.11 MLflow 2.11.3 本稿ではDocker+Poetryを使って環境構築し、大規模言語モデルにはOpenAI APIを用います。 構築 Dockerfileは普通にPythonをPoetryで動かすだけのものです。$ poetry newでpyproject.tomlの配置などが終わっているものとします。必要に応じてpi