タグ

ブックマーク / note.com/hamachi_jp (3)

  • OpenAI互換APIサーバーたてて、LangChainで遊ぶ|はまち

    FastChatがバージョンアップして、LangChainとOpenAI互換のローカルAPIサーバーとの統合方法が詳しめで紹介されていました。 モデルのダウンロードFastChat 初回起動時に自動でモデルがダウンロードされるので、特に何もしなくても大丈夫です。 以前のVicuna-13b-v1.1では、LLaMAから手動でデルタを適用する必要がありましたが、現行のFastChat のバージョンでは、モデル起動時に自動でデルタ適用済みのモデルがダウンロードしてくれるようになりました。 RESTful APIサーバーの起動 各サーバーを起動します。 まずは controllerを起動します。 $ python3 -m fastchat.serve.controllerLangChainから呼び出すOpenAI APIのモデル名に見せかけるために、worker 起動時に、OpenAI公式のch

    OpenAI互換APIサーバーたてて、LangChainで遊ぶ|はまち
    deejayroka
    deejayroka 2024/05/02
    “LangChainとOpenAI互換のローカルAPIサーバーとの統合方法”
  • LangChainまたまた新機能: OpenAI Multi Functions Agent|はまち

    中の人がどうなってるのか、にわかに信じられませんが、またまたLangChainの新機能が発表されていました😮 今度の新機能は、「Multi Functions Agent」です。 Agentが1ステップで複数の関数呼び出しをするという機能です。 Tools定義google検索ツール(SerpAPI)を tools に登録します。 llm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613") search = SerpAPIWrapper() # Define a list of tools offered by the agent tools = [ Tool( name="Search", func=search.run, description="Useful when you need to answer questions

    LangChainまたまた新機能: OpenAI Multi Functions Agent|はまち
    deejayroka
    deejayroka 2023/07/31
    “Agentが1ステップで複数の関数呼び出しをするという機能”
  • LangChainによるCode Interpreterオープンソース実装を試す|はまち

    先日OpenAIからChatGPTのCode Interpreter が公開されて、その能力の高さと応用範囲の広さから界隈で大騒ぎになっていますね。そのコードインタープリター機能をFunction Callingを利用して、LangChainでオープンソース実装を行う試みも始まったようです。 というわけで、さっそく簡単に試してみます。なお、技術的な詳細などはLangChainの公式ブログやGitHubリポジトリなどをご参照ください。 概要LangChainエージェント用のPythonコード実行環境として、専用のJupyterカーネルであるCodeBoxを準備し、その中でPythonインタープリターを実行することで機能を実現しているとのことです。 入力ファイルとして、ローカルのファイルも指定できますが、URLを指定するとネット情報も取得できる。 Google Colabで試してみる簡単にG

    LangChainによるCode Interpreterオープンソース実装を試す|はまち
  • 1