エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
LiteLLM Proxy ServerでAzure openAIを本家openAIぽく使う - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
LiteLLM Proxy ServerでAzure openAIを本家openAIぽく使う - Qiita
Azure OpenAIリソースを使うことが多いんだけど、ちょっとOSSのプログラム試そうとすると、意外と対応し... Azure OpenAIリソースを使うことが多いんだけど、ちょっとOSSのプログラム試そうとすると、意外と対応してなかったりして、面倒なときがあります。本家openaiのみの対応だったり、Azure対応してるふりして実はコード内では全然だったり、Azureまわりはテストされてなかったり。 ということで、Azure OpenAIが使いにくければ、本家openaiっぽくつかえればいいんじゃない?ということで、LiteLLM Proxy Server (LLM Gateway)を使ってみたのでその備忘録です。 以下を参考にしました。 https://docs.litellm.ai/docs/proxy/docker_quick_start 環境 Windows VSC Python 3.10.11 環境はWindowsですが、VSCのターミナルでぽちぽち試している感じなので、linuxとかでもほ

