タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

LLMに関するwrgbh446のブックマーク (3)

  • GPT-4 Turboにドキュメントのチャンク分けを任せてみる - EXPLAZA Tech Blog

    はじめに こんにちは、LLM Advent Calendar 2023 4日目の記事を担当する_mkazutakaです。よろしくお願いします。 LLM Advent CalendarといってもRAGの話になりますが、ご容赦ください。 企業独自のデータを使ってLLMからの出力を制御する際には、検索拡張生成(いわゆるRAG)が使われます。 RAGの実装方法としては、「PDFからドキュメント情報を読み取り検索エンジンに保存」「ユーザの入力する質問文から関連するドキュメントを検索エンジンから取得」「取得したものをコンテキストとしてプロンプトに含める」という流れが一般的だと思います。 この際、RAGの課題の一つでもあるのですが、検索結果から取得するドキュメントのサイズ(いわゆるチャンクサイズ)をどれぐらいのものにするかというものがあります。チャンクサイズが小さすぎるとLLMは関連するコンテキストから

    GPT-4 Turboにドキュメントのチャンク分けを任せてみる - EXPLAZA Tech Blog
  • LLMを効率的に再学習する手法(PEFT)を解説 - Platinum Data Blog by BrainPad

    記事は、当社オウンドメディア「Doors」に移転しました。 約5秒後に自動的にリダイレクトします。 このたびブレインパッドは、LLM/Generative AIに関する研究プロジェクトを立ち上げ、この「Platinum Data Blog」を通じてLLM/Generative AIに関するさまざまな情報を発信をしています。今回は、効率的にLLMのような事前学習済みモデルを再学習する手法(PEFT)についてご紹介します。 問題意識 ビジネスで利用する際に乗り越えるべき壁 PEFTとは何か? PEFTのコンセプト分類 トークン追加型 Prefix Tuning P Tuning Prompt Tuning Adapter型 Adapter LoRA型 LoRA Ada LoRA まとめ 参考文献 こんにちは、アナリティクスサービス部の辻です。 今回は、LLMを効率的に再学習する手法として今後

    LLMを効率的に再学習する手法(PEFT)を解説 - Platinum Data Blog by BrainPad
    wrgbh446
    wrgbh446 2023/07/11
  • ChatGPT(とその周辺)の技術

    はじめに こんにちは。ZENKIGENデータサイエンスチームの栗原です。現在は主に『harutaka EF(エントリーファインダー)』の自然言語処理周りの研究開発に携わっています。 ChatGPTOpenAIから公開され約半年が経ちましたが、この半年の大規模言語モデル、生成AI周りの発展スピードは凄まじいものです。 日でも大きな盛り上がりを見せており、個人から企業、研究機関においてさまざまな活用、日語モデルの開発等が活発に行われている印象です。 ZENKIGENにおいてもChatGPTを含め大規模言語モデル、生成AIをプロダクトに活用する上での様々な検討が進んでおり、その一環として社内勉強会で『ChatGPT(とその周辺)の技術』というお話をしました。 記事は、これを外部向けに公開するものです。 内容は、OpenAIChatGPTに至るまでの変遷として GPT(GPT-1)から

    ChatGPT(とその周辺)の技術
    wrgbh446
    wrgbh446 2023/06/20
  • 1