タグ

promptと*programに関するsh19910711のブックマーク (297)

  • RAGで人間の脳を再現。「HippoRAG」を理解する

    はじめまして。ナレッジセンスの門脇です。生成AIやRAGシステムを活用したサービスを開発しています。記事では、RAGの性能を高める手法である「HippoRAG」について、ざっくり理解します。 この記事は何 この記事は、RAGの新手法として最近注目されている「HippoRAG」の論文[1]について、日語で簡単にまとめたものです。 「そもそもRAGとは?」については、知っている前提で進みます。確認する場合は以下の記事もご参考下さい。 題 ざっくりサマリー HippoRAGは、RAGの性能を高めるための新しい手法です。オハイオ州立大学の研究者らによって2024年5月に提案されました。HippoRAGを使うメリットは、複数の知識を組み合わせて回答する必要があるような、複雑な質問に強くなることです。HippoRAGが従来のRAGに比べて、複雑な質問に強い理由は、ナレッジグラフと、それを継続的に

    RAGで人間の脳を再現。「HippoRAG」を理解する
    sh19910711
    sh19910711 2024/06/12
    "ナレッジグラフと、それを継続的にメンテナンスする仕組み / LLMを使って重要語句を抽出 + OpenIEでトリプルを作成 / マルチホップなタスク(MuSiQueとWikiHopQAなど)において、通常のRAGよりも高い性能"
  • 生成AIを用いた業務改善アイデアソンを開催しました

    こんにちは、ナウキャストのデータ&AIソリューションチームの藤井です。今回は、先日開催した、業務改善を目的とした社内AIアイデアソンのレポートを書いていこうと思います! 開催までの経緯Finatextグループは、生成AIに関連したソリューションを提供するデータ&AIソリューション事業を立ち上げ、生成AIを次の競争力の源泉にしようとしています。社内でも生成AI活用が進んでいて、社内専用のGPTチャットやSlackと連携した議事録要約システム等がリリースされています。また、全エンジニアGitHub Copilotを使えるようになっております。 僕も含めたエンジニアは業務において生成AIをフル活用しており、GPTにSQL文を書かせたり、コーディングの際にもGitHub Copilotを活用してます。 しかし、エンジニアが生成AIを活用している一方で、ビジネスサイドでも生成AIをもっと活用する余

    生成AIを用いた業務改善アイデアソンを開催しました
    sh19910711
    sh19910711 2024/06/12
    "エンジニアが生成AIを活用している一方で、ビジネスサイドでも生成AIをもっと活用する余地 / 企画の過程でAWS様に協賛いただけることになり ~ 審査員としてご参加いただくとともに、AWS賞をご用意いただけることに"
  • [速報] CloudTrail LakeでAIを活用した自然言語によるクエリ生成機能が発表されました(Preview) #AWSreInfoce | DevelopersIO

    [速報] CloudTrail LakeでAIを活用した自然言語によるクエリ生成機能が発表されました(Preview) #AWSreInfoce あしざわです。 現在開催されているAWS re:Inforce 2024 のKeynote にて、CloudTrail LakeのAIを活用した自然言語によるクエリ生成機能が発表されました(Preview) AWS What's newブログ、AWS Blogの両方で発表されています。 AWS Blogをサラッと確認したところ、Previewでのリリース、利用できるリージョンも限られているようですが、個人的に激アツなアップデートです。 ブログでは、アップデートの概要を確認して、アップデート内容を実際に試してみます。 概要 CloudTrail LakeはCloudTrailアクティビティログを集約、分析できるマネージドデータレイクです。 Clo

    [速報] CloudTrail LakeでAIを活用した自然言語によるクエリ生成機能が発表されました(Preview) #AWSreInfoce | DevelopersIO
    sh19910711
    sh19910711 2024/06/12
    "CloudTrail Lake: 元々サンプルクエリの生成機能が優秀だった / CloudTrailイベントはマルチリージョンで収集されているのでバージニア北部以外のリージョンのログもクエリできます / 対応している言語は英語のみ"
  • 音楽と生成技術 2024春 - 猫型の蓄音機は 1 分間に 45 回にゃあと鳴く

    生成技術の発展が当に日進月歩ですごい。音楽に関しても、もう「なになに風の音楽を作って」というものについてはあと一歩で実用レベルだな、と思わせるところまで来ている。以前もこのブログで以下のように書いた。 「こんなイメージで、という指示」をインプットにして、アレンジ済みトラックを出力するような仕事、あるいは「こういう用途で使います」「こういうイメージで」をインプットに、BGMを出力するような仕事は、「よほどのこだわりがある場合」を除いて、生成AIによって早晩奪われていくだろうと思っている。 生成AIによって、演奏の仕事が置き換えられていく可能性は低いと思う。が…… - 型の蓄音機は 1 分間に 45 回にゃあと鳴く なんならLogic11の新しい機能のSessionPlayerなんかはもう「アレンジ済みの演奏を出力する」「ベーシストとして楽曲制作のお手伝いをする」みたいな私の仕事を一部置き

    音楽と生成技術 2024春 - 猫型の蓄音機は 1 分間に 45 回にゃあと鳴く
    sh19910711
    sh19910711 2024/06/12
    "生成技術によって自分の楽しみが奪われることはない / DTMの打ち込みによって「演奏しなくていい機会」が増えたのに「わざわざ演奏したがる」という酔狂なひとがいまだにたくさんいることと相似な気がする"
  • Chrome内蔵LLM Gemini Nanoを使ってみた

    はじめに Chrome 126からローカルで使えるLLM Gemini Nanoが使えるようになりました。 記事では実際に使ってみようと思います。 前準備 まずはChrome Release ChannelsにてDev channelのChromeをインストールします。 インストールできたら下記機能を有効にします。 Enables optimization guide on device: Enabled BypassPerfRequirement Prompt API for Gemini Nano: Enabled 次に、LLMのダウンロードが必要のため、 chrome://components/にアクセスし、Optimization Guide On Device Modelのアップデート状況を確認します。 まだダウンロードされていない場合は、アップデートを確認ボタンでダウンロード

    Chrome内蔵LLM Gemini Nanoを使ってみた
    sh19910711
    sh19910711 2024/06/12
    "ローカルLLM使用のChrome拡張機能が増えていくのでは / LLMのダウンロード: chrome://components/にアクセスし、Optimization Guide On Device Modelのアップデート状況を確認 / session.promptStreaming: 結果をストリーミングで受け取る"
  • 日本語要約に特化したLLMをQLoRAを適用したSFTで作ってみる

    インターネットをご覧の皆さん、こんばんは。 皆さんは文章の要約、やっていますか? やっていますね? 先日 Stability AI よりリリースされた japanese-stablelm-2-base-1_6b をベースモデルとして、 SFT (Supervised Fine-Tuning) を用いて日語要約に特化した言語モデルを作成してみましたので、記事ではその学習の流れについて紹介します。 学習に使用したスクリプトは以下のリポジトリに置いています。 モデルの学習 モデルの学習は以下の流れで行いました。 学習用データセットの収集 まず、要約モデルを学習させるために必要なデータセットを収集します。 要約元となる文章と要約された文章のペアを用意できるようなデータセットを取得します。 学習用データセットの整形 収集したデータの前処理を行い、文と要約のペアを整理します。 モデル学習の実行

    日本語要約に特化したLLMをQLoRAを適用したSFTで作ってみる
    sh19910711
    sh19910711 2024/06/12
    "ThreeLineSummaryDataset: livedoor ニュースの本文 + その記事の3行要約 / 量子化したモデルに対して、 PEFT を使用して QLoRA の適用 / RTX4070 12GBのようなミドルクラスのGPUでも差し支えなくモデルの学習を実行できました"
  • 簡単にLLMをFine-Tuning!CortexLLM-Fine-Tuning

    こんにちはkirigayaです! 少し前にSnowflakeの大型イベントDATA CLOUD SUMMIT 24が開催されました! 今回は特に激アツや〜〜〜と感じた以下 ノートブックからGPUコンテナ使用 CortexLLMのFine-Tuning この記事ではCortexLLMのFine-Tuningについて調査していきたいと思います!!! どちらの機能もすごく欲しかったので発表された時は家の中で跳ね回っていましたw 夢を叶えてくれるSnowflake さっそく新機能のダークモードがお出迎えしてくれます Fine-Tuning ドキュメント 中身はPEFTを使っているようです。 中のどれ?って感じですが... 微調整可能なモデル一覧 Mistral AI の 70 億パラメータの大規模言語モデルは、最も単純な要約、構造化、質問への回答などのタスクを迅速に実行する必要がある場合に最適です

    簡単にLLMをFine-Tuning!CortexLLM-Fine-Tuning
    sh19910711
    sh19910711 2024/06/12
    "CortexLLMのFine-Tuning: テーブル、ビューから作成可能でクエリ結果にprompt、completion列が存在している必要 + 余分な列がある場合は無視される + データは投入時に自動でtrain,testで分割"
  • レシピ動画からサムネイル画像を自動抽出するAIシステムを作りました - every Tech Blog

    はじめに DELISH KITCHENでデータサイエンティストをやっている山西です。 今回はレシピ動画のサムネイル画像の自動抽出の取り組みについて紹介いたします。 OpenCVを用いた画像処理 画像とテキスト情報のペアを扱う大規模モデル 等を用いつつそれを試みた事例になります。 ※記事後半で具体実装を扱っている部分では、周辺知識がある前提で説明を進めていることをご了承ください。 every Tech Blog Advent Calendar 2024(夏) 9日目の記事になります。 出来たもののイメージ どんなものが出来たかを先に紹介します。 一言で表すと、レシピ動画の中から「調理手順を表すのに良い感じのサムネイル画像」をAI的振る舞いで自動で抽出してくれるシステムになります。 これをワンパンカルボナーラというレシピに適用した例を以下に載せています。 図1: AIシステムによるレシピサムネ

    レシピ動画からサムネイル画像を自動抽出するAIシステムを作りました - every Tech Blog
    sh19910711
    sh19910711 2024/06/12
    "調理手順を表すのに良い感じのサムネイル / 各フレーム画像の特徴点を抽出し、動画内の前後のフレームの特徴点の総当たりマッチング / CLOOB: CLIPの改良版として、rinna社によって提供"
  • Chrome の 組み込み AI Gemini Nano を試してみる

    インストールが完了したらアドレスバーに chrome://flags と入力して設定画面を開きます。以下の 2 つのフラグを設定します。 Enables optimization guide on device: Enabled BypassPerfRequirement Prompt API for Gemini Nano: Enabled また、あらかじめ Gemini Nano のモデルをダウンロードしておく必要があります。アドレスバーに chrome://components/ と入力して Optimization Guide On Device Model の「アップデートを確認」をクリックします。 Gemini Nano を使ってみる それでは、Gemini Nano を使ってみましょう。以下のコードをコンソールに貼り付けて実行します。 const canCreate = aw

    Chrome の 組み込み AI Gemini Nano を試してみる
    sh19910711
    sh19910711 2024/06/12
    "Chrome 126 から ~ / Prompt API: JavaScript から Chrome に組み込まれた Gemini Nano にアクセスして生成 AI の機能を実装 / あらかじめ Gemini Nano のモデルをダウンロード"
  • Quickstart を利用して Snowflake における RAG ベースの LLM アシスタントの構築手順を確認してみる #SnowflakeDB | DevelopersIO

    Quickstart を利用して Snowflake における RAG ベースの LLM アシスタントの構築手順を確認してみる #SnowflakeDB はじめに 2024年5月のリリースで、一部のリージョンではありますが、Snowflake 上でベクトルデータの管理と操作が可能な以下の機能が一般提供になりました。 VECTOR データ型 Snowflake Cortex LLM ベース関数 EMBED_TEXT_768 Vector similarity functions VECTOR_INNER_PRODUCT VECTOR_L2_DISTANCE VECTOR_COSINE_SIMILARITY この機能により Snowflake 上で RAG(Retrieval-Augmented Generation)アプローチを取る AI アプリケーションの構築を行えるようになります。 また

    Quickstart を利用して Snowflake における RAG ベースの LLM アシスタントの構築手順を確認してみる #SnowflakeDB | DevelopersIO
    sh19910711
    sh19910711 2024/06/11
    "Snowflake 上でベクトルデータの管理と操作 / VECTOR データ型 + similarity functions / EMBED_TEXT_768: Snowflake Cortex LLM ベース関数 / Streamlit in Snowflake を使用することで、Snowflake 内でデータを外部に出すことなく RAG"
  • ChatGPTプログラミングのすすめ

    ChatGPTなどの大規模言語モデル (Large Language Model; LLM) にプログラミングやリファクタリングをさせる場合、目的に合ったものが作られているかを何らかの方法で検証する必要がある。 プログラムの正しさを完全に保証する方法はないが、ある程度の正しさを継続して担保するための方法を探ってみたので以下にまとめた。 ポイントは、ChatGPTの生成したプログラムの検証にもやはりChatGPTの力を借りることである。 実行可能性と入出力のチェック プログラムを生成するタスクである場合、いつでも「実行できるか?」というチェックが可能である。これは自然言語の生成と大きく異なる点だろう。実行可能性を確かめることは最低限のチェック項目になる。 エラーが出力された場合、自力で修正するか、もしくは、エラーの内容をChatGPTに提示して修正を依頼し、再度実行可能かを確かめる。 入力・

    ChatGPTプログラミングのすすめ
    sh19910711
    sh19910711 2024/06/10
    "ChatGPTにプログラムを作成させたとき、同時にプログラム名も提案させる / プログラム名はそのプログラムの目的や機能を端的に表すものであるため、適切な名前が付けられているかを確認"
  • LLMで議事録を作ってみた ~GPT-4o vs Gemini1.5 Pro vs Claude 3 Opus、三つ巴の戦い~

    sh19910711
    sh19910711 2024/06/10
    "Teamsの文字起こし: 発言時間、発言者、発言内容の情報からなる / GPT-4o: 全体を踏まえている・議題を満遍なく拾っている・人と同程度の粒度 + Gemni 1.5 Pro、Claude 3 Opusはやや情報が細かく、偏る傾向"
  • LangChainの新機能「langgraph-engineer」:Agentを作成するためのAgentを作る - Qiita

    最近、GithubでLangGraph(LangChainが提供するエージェント構築用フレームワーク)のアップデートを確認していたところ、LangChainの開発チームが新機能の開発を進めていることに気づきました。現在はまだテスト段階かもしれませんが、試用コードなどはすでに整っているようです。この新機能は非常に興味深いので、共有したいと思います。 名前は⇩の「langgraph-engineer」です。 現時点ではまだスター数が数十個と少ないため、まだテスト中だと思われます。この機能を簡単に説明すると、agentを作成するためのagentを作るというものです。非常に革新的なアイデアだと思います。 LangChainの開発チームが想定している処理フローは、概ね以下のようになっています まず、ユーザーがagentのワークフローを手書きで作ります。その後、マルチモーダルモデルを使用して手書きの結

    LangChainの新機能「langgraph-engineer」:Agentを作成するためのAgentを作る - Qiita
    sh19910711
    sh19910711 2024/06/10
    "langgraph-engineer: agentを作成するためのagent / ユーザーがagentのワークフローを手書き + マルチモーダルモデルを使用して手書きの結果を認識 + 抽出した情報をもとにLangGraphのコードを生成"
  • Hugging Faceを使いこなして ローカルLLMを推論する

    sh19910711
    sh19910711 2024/06/10
    "Hugging Face Spaces: Gradioなどを簡単にホスティング + Streamlit, Dockerも対応 + ボタンを押すだけでテンプレートコードがデプロイできる / Inference API: cURLで推論 + Proプラン($9.00/month)加入で制限が大きく緩和"
  • 社内ナレッジ活用のためのRAG基盤のPoCを行いました - every Tech Blog

    この記事は every Tech Blog Advent Calendar 2024(夏) 10 日目の記事です。 はじめに こんにちは。DELISH KITCHEN 開発部の村上です。 エブリーでは4月に第4回挑戦weekを実施しました。挑戦week5日間の中で私たちのチームはナレッジ活用のために社内ChatAppに社内ドキュメントを参照できる仕組みづくりに取り組みを行いました。今回はその中でRAG基盤のPoCを行ったので、その取り組みについて紹介します。 挑戦weekについてはこれらの記事で初回の取り組みの様子やCTOの挑戦weekに対する考えが知れるのでぜひ読んでみてください。 https://everything.every.tv/20230428 tech.every.tv PoCの背景 まずは、なぜ社内ナレッジ活用のためのRAG基盤のPoCを行うに至ったか、その背景について説明

    社内ナレッジ活用のためのRAG基盤のPoCを行いました - every Tech Blog
    sh19910711
    sh19910711 2024/06/10
    "社内で溜まったナレッジに基づいて回答できる機能をChatAppに組み込む / Knowledge baseはデフォルトでOpenSearch Serverlessを使用 + データ量に関わらず、月200ドル以上がコストとしてかかって ~ "
  • Vertex AI の LLM 自動評価ツール AutoSxS(automatic side-by-side) 使ってみた!

    1. はじめに こんにちは、クラウドエース データソリューション部所属の泉澤です。 クラウドエースの IT エンジニアリングを担うシステム統括部の中で、特にデータ基盤構築・分析基盤構築からデータ分析までを含む一貫したデータ課題の解決を専門とするのがデータソリューション部です。 データソリューション部では活動の一環として、毎週 Google Cloud の新規リリースを調査・発表し、データ領域のプロダクトのキャッチアップをしています。その中でも重要と考えるリリースをページ含め記事として公開しています。 今回紹介するリリースは、Vertex AI に AutoSxS (automatic side-by-side) という 大規模言語モデル (LLM: Large Lanuage Model) の自動評価ツールが追加された、という内容のものです。 このリリースは 2024/01/08 にあり

    Vertex AI の LLM 自動評価ツール AutoSxS(automatic side-by-side) 使ってみた!
    sh19910711
    sh19910711 2024/06/08
    "AutoSxS: Autorater と呼ばれる第三のモデル(おそらく LLM)を使用して、どちらのモデルが質問やコンテキストに対してより適切な回答を提供しているかを判定 / ジョブの成果物は Cloud Storage に保存"
  • Bedrock の Converse API を少しだけ掘り下げる - Qiita

    Converse API の登場でモデル毎のインターフェースがある程度統一されたので、(langchainのように)以下のように全モデル同じように呼び出す事が出来るようになりました。 とはいえ細かな差もあるので、Converse API の動作をもう少し確認します。 サポートされていないパラメーターを設定するとどうなるのか? Converse API はモデルが変わっても同じ呼び方が出来ると言いつつ、モデル毎にパラメーターのサポート有無が異なります。 システムプロンプトに対応していないAmazon Titanに対してシステムプロンプトを指定してみます。 import boto3 bedrock = boto3.client("bedrock-runtime") modelId="amazon.titan-text-premier-v1:0" messages = [ {"role": "u

    Bedrock の Converse API を少しだけ掘り下げる - Qiita
    sh19910711
    sh19910711 2024/06/08
    "Bedrock: Converse API の登場でモデル毎のインターフェースがある程度統一 / モデルが変わっても同じ呼び方が出来ると言いつつ、モデル毎にパラメーターのサポート有無が異なり / JPEG: Base64エンコードすると必ず/9j/4で始まる"
  • プロンプトを見て、LangSmithのevaluatorを理解する

    はじめに LangSmith langchain.com が提供する LLM アプリ開発のプラットフォームです 2024/02/15 に GA した、今ホットなツールです LangSmith では evaluator を指定することで、様々な評価指標を出力することができます from langsmith import Client from langchain.smith import RunEvalConfig, run_on_dataset evaluation_config = RunEvalConfig( # ここで指定 evaluators=[ "qa", "context_qa", "cot_qa", ] ) client = Client() run_on_dataset( dataset_name="<dataset_name>", llm_or_chain_factory

    プロンプトを見て、LangSmithのevaluatorを理解する
    sh19910711
    sh19910711 2024/06/08
    "LangSmith: langchain が提供する LLM アプリ開発のプラットフォーム + evaluator を指定することで、様々な評価指標を出力 / そのほとんどが LLM 自身による評価 + 「このように評価して」とプロンプトで指示"
  • llama-indexを使って自分と同じ考えを持つAIを作りたい

    はじめに 人の思考プロセスや考え方は、その人が触れてきた情報や経験によって大きく影響されます。逆に言えば、その人が影響を受けた考え方や経験を知ることができれば、その人の思考プロセスを理解できるはずです。 記事ではこのような仮定のもと、私と同じような考えを持つAIを作るために、自分が普段使っているsupernotesというメモアプリに保存されている大量のメモを使ってRetrieval Argumented Generation (RAG)を実装し、どんな受け答えをしてくれるのかを試してみました。 supernotes supernotesは私が愛用しているメモアプリです。 私は、読んだの中で印象に残った考え方や、思い浮かんだアイデアなどをsupernotesにメモしています。そのため、supernotesには私の思考を形成する情報が保存されていると言えます。 (supernotesは素晴

    llama-indexを使って自分と同じ考えを持つAIを作りたい
    sh19910711
    sh19910711 2024/06/08
    "メモアプリに保存されている大量のメモ + llama-index / 文書をベクトルに変換し、ベクトルデータベースのqdrantに保存 / 哲学・価値観に関するメモには自分の考えを書いておいた方が良い / vector_index.as_query_engine()"
  • calm2-7b-chatで日本語Instructionデータセットを生成する【jimba-instruction-1k-beta】

    calm2-7b-chatで日語Instructionデータセットを生成する【jimba-instruction-1k-beta】 要約 cyberagent/calm2-7b-chatの出力を人手でチェック・修正することで作成した日語のInstructionデータセット『jimba-instruction-1k-beta』を商用利用可能なApache Licence 2.0で公開しました。 背景 ここ数ヶ月で、LLMを使った合成データ(Synthetic Data)をLLMの学習に用いるのが一つのトレンドになってきました。 1.3B/2.7Bでありながら高性能なMicrosoftのphi-1.5/2でも事前学習に合成データが使われていることで話題になっていたかと思います。 しかし、今の日語オープンソースLLMの性能では事前学習に使える教科書のような文章は書けそうにないので、出力の使

    calm2-7b-chatで日本語Instructionデータセットを生成する【jimba-instruction-1k-beta】
    sh19910711
    sh19910711 2024/06/08
    "Microsoftのphi-1.5/2でも事前学習に合成データが使われていることで話題になっていた / 日本語オープンソースLLMの性能では事前学習に使える教科書のような文章は書けそうにない"