2024年8月22日のブックマーク (4件)

  • LLMプロダクト開発で学んだLLMエージェント設計原則

    こんにちは。PharmaXの上野(@ueeeeniki)です。 PharmaXでは、YOJOというサービスで複数のLLMエージェントを組み合わせたマルチエージェントの構成でチャットボットシステムを構築しています。 日は、そんなPharmaXのLLMプロダクト開発で学んだエージェント設計の原則をまとめてみたいと思います。 これまでLLMプロダクト開発に関する知見を様々なところで公開してきました。 YOJOのマルチエージェントの仕組みは下記の記事をご覧いただければと思います。 LLMアプリケーションのアーキテクチャについてまとめた資料もあります。 このあたりで、エージェントの設計のコツを一度まとめて置こうという意図です。 LLMエージェント設計原則まとめ PharmaXで培ったLLMエージェントの設計原則をまとめると以下のようになります。 RAGは当に必要な時のみ使う エージェントがこなす

    LLMプロダクト開発で学んだLLMエージェント設計原則
  • GPT-4o-miniのファインチューニングのすゝめ

    突然ですが、みなさんLLMのファインチューニングしていますか? 個人的な感想かもしれませんが、ファインチューニングは、幻滅期に入っているように感じています。 GPT-3.5 Turboのファインチューニングが発表されて以降、ファインチューニングしても思ったような出力をしてくれないので、ファインチューニングに期待しないという意見がちらほら聞こえてきました。 ファインチューニングするぐらいなら、Few-shotなどのプロンプトエンジニアリング技法を駆使した方が、結果的には求めている出力をしてくれると考えている方も多かったのではないでしょうか。 正直、私自身もそうでした。 ファインチューニングは、データセットを準備するのも大変ですし、正直コスパがよくないなと感じていました。 実際、プロンプトのチューニングは高速でPDCAを回せるので、ファインチューニングを反復するよりも遥かに高速なフェードバック

    GPT-4o-miniのファインチューニングのすゝめ
  • ControlNet初心者教本 改訂版|かたらぎ

    0:ControlNetとは ControlNet(コントロールネット)とは画像などを下地にしてポーズや構図、画像の雰囲気を抽出し、画像の生成時に参照する仕組みです。この時利用する仕組みのことをプリプロセッサ(preprocessor)といいます。 下の画像は人間を棒人間のような線で抽出するopenposeの例です。このようにポーズをまねたりすることができます。 コントロールネットopenposeの例1:コントロールネットの導入 まずは、SDWebUIから「拡張機能」を選択して「URLからインストール」を選択してください。「拡張機能のリポジトリのURL」に以下のURLをコピー&ペーストしてください。あとはインストールを押すだけです。 https://github.com/Mikubill/sd-webui-controlnet インストールが完了したら「インストール済み」タブに戻って「適用

    ControlNet初心者教本 改訂版|かたらぎ
  • 図で見てわかる!画像生成AI「Stable Diffusion」の仕組み - Qiita

    ゴッホの「星月夜」のような火星で馬にのる宇宙飛行士 (Stable Diffusionで作成) この記事は、Supershipグループ Advent Calendar 2022の13日目の記事になります。 Supership プロダクト開発部の @ps010 です。普段は広告・マーケティング領域で、分析業務や広告セグメントの作成を担当しています。 記事の目的 最近、チャットAI画像生成AIが話題ですね。特に画像生成AIの Stable Diffusion は、無料かつ無制限で実装を試せることで注目を集めています。 そこでこの記事では、Stable Diffusion の仕組みの理解を目指します。 画像生成AIがどのような仕組みでテキストから画像を生成するのか、Stable Diffusion に焦点を当て、基構造をわかりやすく解説します。 画像生成のメカニズムをイメージしやすいように

    図で見てわかる!画像生成AI「Stable Diffusion」の仕組み - Qiita