Over the past two weeks, there has been a massive increase in using LLMs in an agentic manner. Specifically, projects like AutoGPT, BabyAGI, CAMEL, and Generative Agents have popped up. The LangChain community has now implemented some parts of all of those projects in the LangChain framework. While researching and implementing these projects, we’ve tried to best understand what the differences bet
「LangChain」の以下の記事が面白かったので、簡単にまとめました。 ・Autonomous Agents & Agent Simulations - LangChain blog 1. 自律エージェント と エージェントシミュレーションここ2週間で、「エージェント」で「LLM」を活用する手法が大幅に増えました。具体的には、「AutoGPT」「BabyAGI」「CAMEL」「Generative Agents」などのプロジェクトが発表されました。 ・自律エージェント (BabyAGI、AutoGPT) 新しい計画手法やメモリの使い方を必要とする、長期的な目標が斬新。 ・エージェントシミュレーション (CAMEL、Generative Agents) シミュレーション環境とイベントをもとに反映・適応する長期記憶が斬新。 2. LangChainエージェント「LangChainエージェ
慶應義塾⼤学 杉浦孔明研究室 M1 和田唯我 / Yuiga Wada
こんにちは、CTO室リサーチャーの角田です。 社内では毎週金曜日に持ち回りで論文紹介を行うjournal clubという活動を行っております。そちらで私が発表した以下3本の論文 HiPPO: Recurrent Memory with Optimal Polynomial Projections (NeurIPS 2020 Spotlight) Combining Recurrent, Convolutional, and Continuous-time Models with the Linear State Space Layer (NeurIPS 2021) Efficiently Modeling Long Sequences with Structured State Spaces (ICLR 2022 Oral) について、内容が非常に優れていると判断した&詳細な日本語解説がほ
ChatGPTにとって日本は”機械学習パラダイス”なのか ~LLM(大規模言語モデル)にとっての個人情報保護法とGDPR~ ChatGPTを提供する米OpenAI社のCEOが来日したことが話題になっています。 「ChatGPT」CEO来日、個人データ保護「政府に協力」(日本経済新聞・20230411) 上記記事によれば、OpenAIのCEOは「自ら日本に足を運ぶことで、オープンAIへの支持を広げる狙いがあったとみられる」「日本に拠点を設ける考えも示唆した」とあり、OpenAIは日本を市場として重視しようとしていることが伺われます。 OpenAIにとって、なぜ日本の市場は魅力的なのでしょうか。その理由のひとつとして、GDPR(欧州一般データ保護規則)をはじめとする主要な海外個人データ保護法制よりも、日本の個人情報保護法が機械学習にとって対応しやすいことが挙げられます。 実は日本における著作権
福田(@JunyaFff)です。今月の「Python Monthly Topics」は、最近私が個人的に気になっている静的コード解析ツールRuffについて紹介します。 どんなプログラミング言語でも、静的コード解析ツール(リンター)やフォーマッターは非常に便利です。Pythonでコードを書く場合、皆さんはどんなツールを使っているでしょうか?Flake8やBlack、isortなどが人気で、世界中で多くのPythonエンジニアに利用されています。 Ruffは2022年8月にリリースされた比較的新しい、Pythonのリンター兼フォーマッターです。Ruffはリリースからまだ半年足らずしか経っておりませんが、多くの著名なライブラリで採用[1]され、毎日のようにアップデートされています。2023年3月時点でのRuffの使い方、そしてこれからの発展について、本記事で紹介します。 Ruffとは? ここでは
言語処理学会第29回年次大会(NLP2023) 緊急パネル:ChatGPTで自然言語処理は終わるのか?(言語処理学会理事会主催)2023年3月14日 沖縄コンベンションセンター https://www.anlp.jp/nlp2023/#special_panel *概要:* 大規模言語モデルの発展によって自然言語処理(NLP)の方法論は大きく様変わりした.中でもOpen AIから発表されたChatGPTは言語モデルの利用方法を飛躍的に拡げ,世間からも大きな関心を集めている.ChatGPTに代表される巨大言語モデルの出現でNLPはどう変わるか,はたまた終焉をむかえるのか? 本パネルでは,NLP研究の一線で活躍されている5名のパネリストをお招きし,ChatGPTに関するファクトの共有をはかるとともにNLP研究の今後についてご議論いただく.我々NLP/言語研究に携わる者自身が今起こっていること
OpenAIが開発したChatGPTをはじめ、さまざまなAIが人間レベルの会話を行ってくれるようになりました。AIは文章を読み書きするとき「トークン」という単位で認識を行うのですが、普通の文章がトークン的にはどのように分解されるのかを一目で教えてくれるツール「Tokenizer」がOpenAIのページ上で公開されています。 OpenAI API https://platform.openai.com/tokenizer Tokenizerの画面はこんな感じ。テキストを入力する必要がありますが、いったん「Show example」をクリックして例を見てみます。 英語の場合、252文字の文章で64トークンとなる模様。下部にて文字がトークンのまとまりごとに色分けして表示されています。 「TOKEN IDS」をクリックするとそれぞれの数値も確認できます。人間が見てもなにがなんだか分かりませんが、G
OpenAIが提供する「ChatGPT」などのチャットAIは要約やコーディング、翻訳などを人間の専門家以上の精度で実行できると報告されています。しかしチャットAIの訓練に必要な人間のフィードバックに基づいた強化学習(RLHF)を実行するエンドツーエンドなパイプラインが存在せず、最先端のチャットAIの訓練を行うことは困難でした。しかしMicrosoftが発表した「DeepSpeed-Chat」では誰でもChatGPTのようなモデルを作成可能です。 DeepSpeed/blogs/deepspeed-chat/japanese at master · microsoft/DeepSpeed · GitHub https://github.com/microsoft/DeepSpeed/tree/master/blogs/deepspeed-chat/japanese これまでChatGPTのよ
LangChainのAgentをカスタムできると自由度が上がりますが、LangChainのAgentがいまいちブラックボックスだった感があったので、デフォルトのプロンプトを解剖してみました。最近のLangChainだとChatGPT対応されており、これをカスタムすることで安価にAPIが使えそうです。 はじめに LangChainのAgentを使うとReActで自動的に使うツールを選択してくれるのですが、このAgentがどんなテンプレートをLLMに送っているのか前から気になっていました。そこで、Agentのプロンプトをデバッグする方法を考えます。 ここでターゲットとするAgentは、ChatGPTのConversationalChatAgentです。 ConversationalなAgentは比較的最近のLangChainでないと利用できません(LangChain0.0.101では不可で、0
チャット、文章生成、翻訳、コーディングなどさまざまなタスクをこなす万能型ジェネレーティブAIツールである「ChatGPT」。同じ土俵では競合は少ないものの、翻訳、要約、ライティング、コーディングなど各機能に特化して見ると、競合は多数存在する。どのような競合がいるのか、4つの特化型ジェネレーティブAIの現状を探ってみたい。 細谷 元 バークリー音大提携校で2年間ジャズ/音楽理論を学ぶ。その後、通訳・翻訳者を経て24歳で大学入学。学部では国際関係、修士では英大学院で経済・政治・哲学を専攻。国内コンサルティング会社、シンガポールの日系通信社を経てLivit参画。興味分野は、メディアテクノロジーの進化と社会変化。2014〜15年頃テックメディアの立ち上げにあたり、ドローンの可能性を模索。ドローンレース・ドバイ世界大会に選手として出場。現在、音楽制作ソフト、3Dソフト、ゲームエンジンを活用した「リア
In the past few years we have seen the meteoric appearance of dozens of models of the Transformer family, all of which have funny, but not self-explanatory, names. The goal of this paper is to offer a somewhat comprehensive but simple catalog and classification of the most popular Transformer models. The paper also includes an introduction to the most important aspects and innovation in Transforme
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く