以下の記事が面白かったので、簡単にまとめました。 ・Welcome Gemma - Google’s new open LLM 1. Gemma1-1. Gemma「Gemma」は、「Gemini」をベースとしたGoogleの4つの新しいLLMモデルのファミリーです。2Bと7Bの2つのサイズがあり、それぞれにベースモデルと指示モデルがあります。すべてのバリアントは、量子化なしでもさまざまなタイプのコンシューマ ハードウェアで実行でき、コンテキスト長は8Kトークンです。 ・google/gemma-7b : ベースモデル ・google/gemma-7b-it : 指示モデル ・google/gemma-2b : ベースモデル ・google/gemma-2b-it : 指示モデル 以下は、ベースモデルの概要と、LLM Leaderboard の他のオープンモデルと比較したパフォーマンスです
以下の記事が面白かったので、簡単にまとめました。 ・Towards Long Context RAG - LlamaIndex 1. はじめにGoogleは、1Mコンテキストウィンドウを持つ「Gemini 1.5 Pro」をリリースしました。初期ユーザーは、数十もの研究論文や財務報告書を一度に入力した結果を共有しており、膨大な情報を理解する能力という点で印象的な結果を報告しています。 当然のことながら、ここで疑問が生じます。「RAG」は死んだのでしょうか?そう考える人もいますが、そうではない人もいます。 幸運にも「Gemini 1.5 Pro」の機能をプレビューすることができ、それを試してみることで、ロングコンテキストLLMを適切に使用するには、RAGがどのように進化するのかについてのまとめました。 2. Gemini 1.5 Pro の 初期観察「Gemini」の結果は印象的で、テクニカ
ローカルでLLMを動かそうとなったら transformers ライブラリ、llama.cpp、text generation webuiなどいくつかの選択肢があると思いますが、どれもめちゃくちゃハードルが高いというほどではないですが、動かすまでの手続が若干いかつい印象があります。 そんな中で Ollama というツールを試してみたところインターフェイスがシンプル、ついでにキャラクターのラマが可愛いのでご紹介していこうと思います。 ちなみにですが、日本語での言及はあまり見かけなかったですが、LangChain が出してるレポートでは OSS モデルを動かすのに使われているものとしては3番目に多く使われており、 出典: LangChain State of AI 2023 GitHub のスター数も現在約33700とかなり人気を集めていそうです。 Ollama で CLI から推論 では早速
こんにちは、AI製品開発グループのファイサルです。 この記事では、Know Narrator Searchで使用されている文章参照手法、Retrieval-Augmented Generation(RAG)の精度向上方法について紹介します。 はじめに ChatGPTを始めとした大規模言語モデル(LLM)の登場により、AI業界、特に自然言語処理分野で多くの素晴らしい応用先が提案されるようになりました。 LLMは素晴らしい技術であることは間違いないですが、同時に幻覚(Hallucination)という問題を抱えています。 このHallucinationという問題は、LLMが事実と異なる情報をあたかも真実であるように回答するというもので、LLMの発表当初から指摘されていました。 この問題を解決するために、さまざまな手法が存在しますが、よく用いられるのが「Retrieval-Augmented G
こんにちは! ノリトです。ChatGPT使ってますか? 2月16日にGemini Pro 1.5の発表がありました。 プロンプトに100万トークン使え、料金もGemini 1.0と同じならChatGPT 4の240分の1で、性能はChatGPT 4以上というのが売り文句です。 Gemini 1.0については、残念ながら使うのは時期尚早と思っています。 しかし、Googleが自信満々で出してくる以上、構えは必要です。 リリースに備えて、Google AI Studioについて調べましたので、共有いたします。 この記事は、大阪のIT専門学校「清風情報工科学院」の校長・平岡憲人(ノリト)がお送りします。 ノリトについては、こちらの記事を。 1.Gemini 1.5 ProとはGoogleによれば、Gemini 1.5 Proは次のような生成AIサービスです。 巨大な処理能力: 最大100万トーク
1. 概要 M5Burner は M5Stack 製品のファームウェアを扱うツールです。主な機能は以下の通りです。 ファームウェアの入手 ファームウェアの書き込み・消去 独自ファームウェアの公開・配布 シリアルモニタ
皆さんこんにちは。データサイエンティストチームYAMALEXのSsk1029Takashiです。 YAMALEXは Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 Acroquestでは検索とAzure OpenAI Serviceを組み合わせたQAシステムを提供中です。 こういったシステムを運用していく中で課題になるのが精度評価と改善の仕組みです。 今年7月の記事でPrompt Flowを使った回答評価を検証してみましたが、今回はOSSのragasというツールを使って検証してみます。 ragasとは ragasはRAG(Retrieval Augumented Generation)の仕組みの良し悪しを評価するためにOSSで作成されたライブラリです。 以下のリポジトリがあり、Pythonのライブラリとして使用することができ
米Microsoft(マイクロソフト)は米国時間2024年5月21日、年次イベント「Microsoft Build」で、生成AI(人工知能)によるユーザー支援機能「Copilot」の機能強化を発表した。複数の外部プログラムをつないで実行する「生成AIエージェント」を開発する機能や、個人だけでなくチームをサポートする「Team Copilot」を新たに追加。Copilotはユーザーをチャットで支援する機能から、業務を自動化する存在に進化しようとしている。 ユーザーがCopilotをカスタマイズできるローコードツール「Microsoft Copilot Studio」に、エージェントを開発する機能を新たに追加した。複雑なプロセスを自動化し、人の介入を最小限に抑えた自律的なエージェントを作成できるという。早期アクセスプログラムで限定的に公開されており、2024年後半にプレビュー版が提供される予定
「Agentic Design Patterns」と呼ばれるLLMベースのAIエージェント(以下、LLMエージェント)の4つのデザインパターンについて紹介します。 まず、「Agenticワークフロー」について説明し、続いて4つのデザインパターンを説明します Agentic Design Patterns Part 1 Agentic Design Patterns Part 2, Reflection Agentic Design Patterns Part 3, Tool Use Agentic Design Patterns Part 4, Planning Agentic Design Patterns Part 5, Multi-Agent Collaboration 動画もあります。 LLMエージェントについての説明は省略しているため、エージェントについて初見の方は以下記事をお勧
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く