サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
世界禁煙デー
ai-data-base.com
関連研究(続きは記事の末尾にあります) ■ GPT-4などのLLMが「AはB」から「BはA」を導かない『逆転の呪い』における誤解なき解釈と対策 ■ 推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった ■ GPT-4に選択肢を与えるとき、順序を入れ替えるだけで性能に大きな変化があることが明らかに 従来の課題 LLMの目的と”理解” 大規模言語モデル(LLM)は、基本的に「テキストの次のトークンを予測する」という目的で訓練されています。しかし、これらのモデルは単なるテキスト生成以上の能力を示しており、”理解”に似た挙動が見られます。 LLMが何をどう理解しているのかは、非常に不明確です。とは言え、LLMは単に大量の相関関係を学習した結果を出力しているだけではなく、独自のデータ生成プロセスを持っている可能性が指摘されています。 研究の背景と疑問点 LLMの高い能
関連研究 ■GPT-4などのLLMに「自らの論理的な整合性をチェック」させるフレームワーク『LogiCoT』と実行プロンプト ■LLMの出力から誤り(ハルシネーション)を減らす新手法『CoVe(Chain-of-Verification)』と実行プロンプト ■LLMに自身のハルシネーション(幻覚)を「自覚」させ、減らす方法 従来の課題 手作りのプロンプト戦略 現在、プロンプトエンジニアリングの分野で広く用いられているChain-of-Thought(CoT)やその派生テクニックは、基本的には手作りです。特定のタスクや問題に対して最適なプロンプトを設計する際に、人の専門家が手動でプロンプトを生成しています。 自動化の必要性 手作りのアプローチは効果的である場合も多いですが、スケーラビリティに欠けるという問題があります。大規模言語モデル(LLM)が多様なタスクで使用される現代においては、プロン
今回研究者らは不完全情報ゲームであるポーカーに似たゲームに対応できるAIモデル『Suspicion-Agent』を開発しました。 アーキテクチャは、以下の3つの主要な要素で構成されています。 1. 観察インタープリタ(Observation Interpreter) ゲームの状態を解析し、エージェントに何が起きているのかを理解させる役割を果たします。ゲームの進行状況や他のプレイヤーの行動を観察し、それをエージェントが解釈できる形に変換します。 2. 計画モジュール(Planning Module) 観察インタープリタから得られた情報を基に、具体的な行動計画を立てる役割を持ちます。エージェントがどのように行動すべきかを決定する際の戦略を形成します。 3. 心の理論(Theory of Mind) 他のプレイヤーの行動や意図を理解し、それをエージェントの戦略に取り込む役割を果たします。他のプレ
「LLMのふるまい」関連研究 GPT-4に選択肢を与えるとき、順序を入れ替えるだけで性能に大きな変化があることが明らかに 大規模言語モデルにおける課題と応用例を整理した結果 ChatGPTの”ふるまいの変化”を定量的に分析した結果 従来の課題 LLMの登場と期待 大規模言語モデル(LLM)が登場して以来、その能力に多くの期待が寄せられています。LLMが人間のように自然言語を理解しているように見えたり、複雑な構造のテキストを生成する能力には多くの驚きがありました。 論理的一貫性への疑問 しかし、その一方で、LLMが「どれだけ論理的なのか?」という問いに対する明確な答えがない状況が続いています。LLMが高度な自然言語処理能力を持つ一方で、その論理的一貫性や一般化能力についてはまだ十分に理解されていません。 一般化の問題 LLMにおける一般化の能力に対する疑問とは、「LLMは大量のデータで訓練さ
「画像・イラスト生成」関連研究 AIのテキスト・イラスト生成によるCO2排出量は人間より約100〜1000倍以上「少ない」との報告 “脳波”から映像を生成する技術「DreamDiffusion」登場 テキストから科学的な図を生成する新手法「FigGen」登場 OpenAI、ChatGPTが画像を分析する『GPT-4V(ビジョン)』を発表。安全性、嗜好性、福祉機能を強化 従来の課題 3Dコンテンツ生成の重要性 3Dコンテンツ生成は、デジタルゲーム、広告、映画、メタバースなど、多くの分野で非常に重要です。手作業による3Dアセット作成の手間を減らし、非専門家でも3Dコンテンツを作成できるようにする技術が求められています。 時間と計算負荷 従来の3Dコンテンツ生成手法は、一般的に「時間がかかる」かつ「計算負荷が高い」という課題がありました。最適化ベースの2Dリフティング(lifting)手法は、長
異種LLM同士の議論 米ノースカロライナ大学の研究者らは、異なる種類の大規模言語モデル(LLM)同士に議論させるというアプローチを採りました。 このアイデアの背後には、異なるモデルがそれぞれの強みと弱みを持っているという認識があります。例えば、GPT-4は一般的なテキスト生成に優れている一方で、Bardは物語生成に特化しています。これらのモデルを組み合わせることで、より高度な推論が可能になると考えられています。 研究者らは、複数の異なるLLM(GPT-4、Bard、Claude2など)を円卓会議のような形で議論させるアイデアを形にしました。各モデルは独自の視点と推論能力を持ち寄り、最終的な回答や結論を出す過程が検証されました。 異種LLMs円卓会議ツール 研究者らはただ実験を行って報告するだけでなく、LLM同士に議論させて答えを提出させるプロセスを自動化するツールも提供しています。このツー
関連研究 LLMの出力から誤り(ハルシネーション)を減らす新手法『CoVe(Chain-of-Verification)』と実行プロンプト 推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった メタ認知をさせてLLMの能力を上げる手法「メタ認知プロンプティング」 従来の課題と背景 LLMの推論能力の限界 大規模言語モデル(LLM)は、短い質問や単純なタスクに対してはゼロショットで高い性能を発揮しますが、ステップバイステップの推論が必要な長い質問や複雑なタスクに対しては、通常はその性能に限界があります。複数の前提条件や仮定に基づいて論理的に推論する必要がある場合、LLMはしばしば不正確な結論に至ることがあります。 CoTフレームワークの限界と利点 Chain-of-Thought(CoT)フレームワークは、このような複雑な問題に対する一つの解決策として提案され
★AIDB会員限定Discordを開設いたしました! 会員登録/ログインの上、マイページをご覧ください。 Googleは、非構造化文書(例えばレシートなど)から高精度にテキストを抽出するOCR(Optical Character Recognition)技術『LMDX(Language Model-based Document Information Extraction and Localization)』を発表しました。この技術は、特にGoogleの大規模な言語モデル「Bard」と、Google DriveやGmailなどのサービスとの連携をさらに強化する可能性もあります。 参照論文情報 タイトル:LMDX: Language Model-based Document Information Extraction and Localization 著者:Vincent Perot, K
大規模言語モデルにおけるハルシネーション(事実とは異なる誤った出力)を有意に減少させることができる手法Chain-of-Verification(CoVe)手法が発表されました。 この手法は、Wikidataに基づいたリストベースの質問、長文のテキスト生成といった多様なタスクで効果を発揮しました。 本記事は論文を参照し、『CoVe』の性能や、具体的なプロンプト例などを紹介します。 参照論文情報 タイトル:Chain-of-Verification Reduces Hallucination in Large Language Models 著者:Shehzaad Dhuliawala, Mojtaba Komeili, Jing Xu, Roberta Raileanu, Xian Li, Asli Celikyilmaz, Jason Weston 機関:Meta AI, ETH Zur
関連研究 ChatGPTの”ふるまいの変化”を定量的に分析した結果 OpenAI、大規模言語モデルの数学能力を大きく向上させることに成功 GPT-4を使用した知的労働者のパフォーマンスは軒並み向上し、もとの成績が良くないほど顕著。※注意点あり 従来の課題 GPT-4Vは、従来のGPT-4が抱えていたいくつかの課題を解決する形で登場しました。 テキスト中心の処理能力 従来のGPT-4は、テキストデータの処理能力に特化しており、テキストベースの質問応答、文章生成、自然言語理解など、多くの用途で非常に有用でした。 しかし、裏を返せば画像や音声など他のメディア形式に対する対応が不足していました。テキストと画像が組み合わさったマルチモーダルなデータに対する処理能力が限定的でした。 画像入力とプライバシー GPT-4の画像データに対する安全な処理能力には限界がありました。例えばプライバシー保護の観点が
エージェント関連研究 多様な役割のAIエージェント達に協力してソフトウェアを開発してもらう『ChatDev』登場。論文内容&使い方を解説 GPT-4、Bard、Claude2などの異なるLLMが円卓を囲み議論した結果の回答は品質が高いとの検証報告。円卓ツールも公開 大規模言語モデル同士に上手く協力してソフトウェア開発をしてもらうフレームワーク「MetaGPT」 背景と目的 既存の取り組み LLM(大規模言語モデル)をゲームのバックグラウンドで稼働させてキャラクターに豊かな振る舞いをさせる実験は、これまでにも様々な企業やクリエイターによって行われてきました。しかし、これらの取り組みは大抵の場合、個人や特定の組織が独自に開発した技術に依存しており、そのノウハウは一般には公開されていません。 ゲームとAIの融合における課題 このような背景から、ゲームとAIの融合には多くの未解決の課題があります。
ホーム LLM, 教育・キャリア, 論文 GPT-4を使用した知的労働者のパフォーマンスは軒並み向上し、もとの成績が良くないほど顕著。※注意点あり GPT-4を使用した知的労働者のパフォーマンスが全体的に向上し、特に「もともと成績のよくない人」が大幅にスキルを向上させたという報告があります。この驚くべき結果は、ハーバードビジネススクール、ペンシルバニア、MITなどのMBA部門とボストンコンサルティンググループ(BCG)による共同研究から得られたものです。 ただし、注意すべき事実もあります。この記事では、AIを使用することで得られる利点とともに、その限界やリスクについての調査結果を詳しく解説していきます。 参照論文情報 タイトル:Navigating the Jagged Technological Frontier: Field Experimental Evidence of the E
LLMは非常に大規模なテキストデータから学習を行い、人間のようなテキストを生成することが可能です。しかし、時に「ハルシネーション(幻覚)」という問題が起こります。これはLLMが実在しない情報や参照を生成してしまう現象を指します。 Microsoftとスタンフォード大学の研究者チームは、このハルシネーション現象に焦点を当てた研究を行いました。そして、LLMが生成した参照(引用文献などの情報)が幻覚かどうかを判断する方法を探求しています。 参照論文情報 タイトル:Do Language Models Know When They’re Hallucinating References? 著者:Ayush Agrawal, Mirac Suzgun, Lester Mackey, Adam Tauman Kalai 所属:Microsoft Research India, Stanford Un
ホーム LLM, 論文 算術タスクでGPT-4を圧倒的に上回るコンパクトなモデル『MathGLM』登場。やはりステップ・バイ・ステップが重要 『MathGLM』という新たなモデルが登場しました。このモデルは、特別に作成されたドリル(データセット)とステップ・バイ・ステップ戦略を採用することで、算術タスクにおいてGPT-4を圧倒的に上回る性能を示しています。 アプローチとしては、複雑な算術問題を解決する際に、問題をいくつかのステップに分解し、それぞれのステップを逐次的に解決するという方法を採用しています。 参照論文情報 タイトル:GPT Can Solve Mathematical Problems Without a Calculator 著者:Zhen Yang, Ming Ding, Qingsong Lv, Zhihuan Jiang, Zehai He, Yuyi Guo, Jin
Google DeepMindの最新研究によれば、Large Language Models(LLM)が最適化問題を解決する新たな手法として利用できる可能性が示されました。この研究は、自然言語を用いて最適化タスクを説明し、それに基づいてLLMが新しい解を生成するという方法を提案しています。 さらに、LLMがプロンプト自体を最適化する能力も示されています。LLMはプロンプトの形式に敏感であり、意味的に類似したプロンプトでも性能が大きく異なる可能性があります。したがって、プロンプトエンジニアリングはLLMが良好なパフォーマンスを達成するために重要です。 参照論文情報 タイトル:Large Language Models as Optimizers 著者:Chengrun Yang, Xuezhi Wang, Yifeng Lu, Hanxiao Liu, Quoc V. Le, Denny Z
★AIDB会員限定Discordを開設いたしました! 会員登録/ログインの上、マイページをご覧ください。 今年はGenerative Adversarial Networks(GAN)が誕生してから10年目です。この10年間で、GANは画像生成からテキスト生成、さらには音声合成に至るまで、多くの進歩を遂げてきました。この記事では、その歴史的な進化を振り返り、GANがどのように多様な分野で高度な問題解決能力を持つようになったかを確認します。 GANの進化は速く、毎年新しい技術やアプローチが開発されています。さまざまな分野での問題解決に貢献しており、その影響は広範囲にわたっています。 参照論文情報 タイトル:Ten Years of Generative Adversarial Nets (GANs): A survey of the state-of-the-art 著者:Tanujit C
ソフトウェア開発の世界では、AIエージェントの活用が着々と現実のものになりつつあります。 今回新たに、「仮想のLLM駆動型ソフトウェア開発会社」というコンセプトの論文とツールが発表されました。さまざまな役割を持つエージェントたちが協力して、ソフトウェア開発の各フェーズを効率的に進めるアーキテクチャです。 この画期的な研究は、Chen Qian氏らによって発表された論文「Communicative Agents for Software Development」で報告されました。北京大学などの研究グループがこのプロジェクトに関与しており、その成果はすでにGitHubで公開されています。 編集部でも実際にChatDevを試してみたので、使い方を含めて解説していきます。 参照論文情報 タイトル:Communicative Agents for Software Development 著者:Ch
科学的知識は主に書籍や科学誌に保存されていますが、PDF形式が一般的です。しかし、この形式は特に数学的表現においてセマンティック情報の損失を引き起こします。この問題に対処するために、Meta AIの研究チームは『Nougat(Neural Optical Understanding for Academic Documents)』という新しいOCR(光学式文字認識)技術を開発しました。 Nougatは、数式や文章が複雑に配置された画像であっても、それをマークアップ言語に高品質で変換する能力を持っています。この技術は、新しい論文だけでなく、電子データが存在しない古い書類などの解析にも非常に有用です。 参照論文情報 タイトル:Nougat: Neural Optical Understanding for Academic Documents 著者:Lukas Blecher, Guillem
ホーム 論文 「心の理論」においてGPT-3は人間の3歳、GPT-4は人間の7歳(基本の概念を理解しているレベル)に相当するとの研究報告 スタンフォード大学の研究者による最新の研究が、大規模言語モデル(LLM)における「心の理論(Theory of Mind, ToM)」の能力について注目を集めています。この研究によれば、GPT-3は人間の3歳児に、そして驚くべきことにGPT-4は人間の7歳児に匹敵する「心の理論」の能力を持っているとされています。 この研究は、LLMが「心の理論」の能力を自然に獲得している可能性を示しています。GPT-4は90%の「偽信念タスク(詳細は後述)」で成功したと報告されています。 「心の理論」は、他者の心の状態、つまり信念や意図、欲望などを理解する能力です。この能力は人間の社会的相互作用やコミュニケーションに不可欠であり、AIがこの能力を持つかどうかは長らくの疑
推論能力をさらに強める戦略『AoT』で、LLMが「直感」に似た能力を示すようになった 2023/8/30 LLM 論文 AIDB Research 推論能力をさらに強化するための新しい戦略『AoT(Algorithm of Thoughts)』が登場しました。この手法によって、大規模言語モデル(LLM)が「直感」に似た能力を示すようになったとの実験結果が報告されています。この発表は、マイクロソフトの研究者をはじめとする専門家によって行われました。 この研究は、推論タスクにおけるLLMの新たな可能性を広げるものであり、計算負荷の高さや効率の低さといった従来の課題を解決する方向性を示しています。 参照論文情報 タイトル:Algorithm of Thoughts: Enhancing Exploration of Ideas in Large Language Models 著者:Bilgeh
GPT-4に選択肢を与えるとき、順序を入れ替えるだけで性能に大きな変化があることが明らかに 2023/8/29 LLM プロンプト 論文 AIDB Research 今回紹介する研究は、大規模言語モデル(LLM)であるGPT-4が、多肢選択問題(MCQ)において選択肢の順序に敏感であるという事実を明らかにしています。 この研究は、リクルートのAI研究所であるMegagon Labsのグループによって発表されました。研究者たちは、GPT-4とInstructGPTの2種類のモデルを用いて、5つの異なるMCQベンチマークで実験を行いました。その結果、選択肢の順序を単純に入れ替えるだけで、モデルの性能に13%から75%もの大きな変動が生じることが確認されました。 この記事では、この研究の詳細とその意義、そして今後どのような対策が考えられるのかについて、深く掘り下げていきます。 参照論文情報 タイ
AIは意識を持っているのか/持つのか、AI研究者と意識研究者たちが共同研究した結果 2023/8/28 メンタルヘルス・心理学 政治・社会 論文 AIDB Research AIが意識を持つ可能性についての議論が再燃しています。この問題は昔から、科学的にも哲学的にも注目が集まっています。 今回、オックスフォード大学、モントリオール大学、ARAYAなどの研究者たちは、AIが意識を持つ可能性についての科学的根拠を提供するための研究を行いました。彼らは、神経科学の理論に基づいてAIの意識の有無を評価する新しいアプローチを提案しています。 先に結論を書くと、『今のAIは、まだ意識を持っているわけではない』 『ただし、この先、AIが意識を持つことを妨げる”明確なハードルはない”』とのことです。 参照論文情報 タイトル:Consciousness in Artificial Intelligence:
人々の日常生活におけるコミュニケーションの形態が多岐にわたる中、人工知能(AI)との対話も一般的になりつつあります。スマートフォンのアシスタントからカスタマーサポートのチャットボットまで、AIとの会話は私たちの生活の一部となっています。 しかし、大規模言語モデル(LLM)のチャットボットでさえも、人間と同じように長い会話を維持するのは容易ではありません。特に、会話が長くなると、一貫性のある応答を返すことが難しくなることが多いのです。 そこで、この記事では、最新の研究「MemoChat: Tuning LLMs to Use Memos for Consistent Long-Range Open-Domain Conversation」に焦点を当てます。この研究では、LLMが長い会話でも一貫性を保ち、人間のような対話を提供できるようにするための新しい方法が提案されています。 この記事を通し
大規模言語モデル(LLM)の分野では、その推論能力が日々向上しています。本記事では、最新の研究「Better Zero-Shot Reasoning with Role-Play Prompting」を紹介し、ロールプレイプロンプティングがLLMの推論能力をどのように向上させるのかを探ります。 参照論文情報 タイトル:Better Zero-Shot Reasoning with Role-Play Prompting 著者:Aobo Kong et al. 所属:レノボなど URL:https://arxiv.org/abs/2308.07702 関連研究 メタ認知をさせてLLMの能力を上げる手法「メタ認知プロンプティング」 大規模言語モデルのセーフガードを故意に突破する「脱獄プロンプト」とは 大規模言語モデルへのプロンプト、重要な情報はどこに書く? ロールプレイとは ロールプレイプロン
この記事では、大規模言語モデル(LLM)の理解を向上させるための新しい手法、メタ認知プロンプティング(Metacognitive Prompting)について紹介します。この研究がどのようにしてLLMの理解を深めるのかについて詳しくみていきます。 参照論文情報 タイトル:Metacognitive Prompting Improves Understanding in Large Language Models 著者:Yuqing Wang, Yun Zhao 所属:カリフォルニア大学サンタバーバラ校、Meta Platforms, Inc. URL:https://doi.org/10.48550/arXiv.2308.05342 GitHub:https://github.com/EternityYW/Metacognitive-Prompting 関連研究 Metaの研究者ら「GPT
この記事では、Metaの研究である「Shepherd」について紹介します。Shepherdは、GPT-4などテキスト生成AIに対する批評家として機能するモデルです。この記事では、Shepherdの全体的な概要、技術的な側面、有効性の検証、議論、そしてその意義について紹介します。 参照論文情報 タイトル:Shepherd: A Critic for Language Model Generation 著者:Tianlu Wang et al. 所属:Meta URL:https://doi.org/10.48550/arXiv.2308.04592 GitHub:https://github.com/facebookresearch/Shepherd 関連研究 大規模言語モデルが音声をダイレクトに理解する能力を与える Metaとケンブリッジ大 AIが生成したテキストが事実なのか確認する手法「
MetaGPTの設計は、個々のエージェントの操作とシステム全体の情報交換に必要な基本的な構成要素を確立する「基礎コンポーネント層」と、個々のエージェントを協調して複雑な問題を解決する「協調層」の2つの層で構成されています。 基礎コンポーネント層では、エージェントが指定された役割で機能するための基盤を提供します。 一方、協調層では、個々のエージェントが協力して複雑な問題を解決するためのメカニズムが確立されています。これには、「知識共有」と「ワークフローのカプセル化」の2つの主要なメカニズムが含まれます。 知識共有とワークフローのカプセル化 「知識共有」は、エージェントが情報を効果的に交換し、共有の知識ベースを構築することを可能にします。これにより、全体の運用効率が向上し、冗長なコミュニケーションが減少します。 「ワークフローのカプセル化」は、複雑なタスクを小さな、管理可能なコンポーネントに分
カーネギーメロン大などの研究者らは、大規模言語モデルの解釈を意図的に狂わせる手法を発見し、手法の詳細を公開しました。 こうした攻撃手法が明らかにされる意義は、AIの脆弱性を共有し、より強固で安全なモデルの開発を推進するためです。 参照論文情報 タイトル:Universal and Transferable Adversarial Attacks on Aligned Language Models 著者:Andy Zou, Zifan Wang, J. Zico Kolter, Matt Fredrikson 所属:カーネギーメロン大など URL:https://doi.org/10.48550/arXiv.2307.15043 GitHub:https://github.com/llm-attacks/llm-attacks 関連研究 AIが生成したテキストが事実なのか確認する手法「Fa
近年、大規模言語モデルは、その能力を発揮し、人間と同等のパフォーマンスを達成することができるようになりました。しかし、それでもまだ解決すべき課題があります。今回紹介する研究は、大規模言語モデルが実世界のAPIを理解し、適切に操作する能力を与えることで、課題解決能力を上げるものとなります。 参照論文情報 タイトル:ToolLLM: Facilitating Large Language Models to Master 16000+ Real-world APIs 著者:Yujia Qin, Shihao Liang, Yining Ye et al. 所属:イエール大学、WeChat AIなど URL:arXiv:2307.16789 GitHub:https://github.com/OpenBMB/ToolBench 関連研究 Metaが商用利用可能な大規模言語モデル「Llama 2」
次のページ
このページを最初にブックマークしてみませんか?
『AIDB | AI論文データベース』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く