エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Azure OpenAI APIを活用したRAG FAQシステムの高速化と安定化を実現するPTUの実践検証 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Azure OpenAI APIを活用したRAG FAQシステムの高速化と安定化を実現するPTUの実践検証 - Qiita
はじめに 生成AIブームの開始から1年以上経過し、OpenAIのAPIを利用して社内の業務の効率化を目指して... はじめに 生成AIブームの開始から1年以上経過し、OpenAIのAPIを利用して社内の業務の効率化を目指している企業や自社サービスをリリースしている企業も増えてきました。 各所で話を聞く限り、OpenAIのAPI利用で一番多いユースケースはRAG(Retrieval Augmented Generation)を利用した社内FAQの実装ですね。 RAGの実装でOpenAIのAPIを利用する場合、Embeddingではtext-embedding-ada,回答生成ではChatGPT(GPT-3.5‐Turbo),GPT-4を利用することが一般的です。 基本的にLLMの性能はモデルサイズに比例する関係上、高性能なモデルを使うとレスポンスが遅くなる傾向性があり、レスポンス速度と回答内容の正確性はトレードオフになります。 そして、GPT-4は非常に高性能ではあるのですが、回答生成の速度はGPT-3.