タグ

promptに関するsh19910711のブックマーク (376)

  • 生成AIを活用してGitHubのIssueをSlackから簡単に起票できる仕組みを作った話 - 食べチョク開発者ブログ

    皆さんこんにちは、ビビッドガーデンCTOの西尾です。 今回はGitHubのIssueをSlackから簡単に起票できるツールを開発し、運用しているお話をしたいと思います。 Issueの起票は意外と手間がかかる 弊社ではエンジニア、ビジネスメンバーともにGitHub Issuesにて課題管理をしています。 Issueに記載する内容はいくつかテンプレート化されているのですが、以下のような内容を記載することが多いです。 ## 💫 目的や背景 ## 💪 実現したいこと ## 🉑 受け入れ基準 ## 📎 資料 ## 🔧 タスク Issueは誰が見てもわかりやすい記載をするのがベストではあります。 しかし、こんなことをいったら怒られてしまうかもしれませんが、このIssueを起票するという行為、さらにいうと文章をきちんと考えるのが意外と億劫だったりします。 弊社でも、「〇〇をIssue化しておい

    生成AIを活用してGitHubのIssueをSlackから簡単に起票できる仕組みを作った話 - 食べチョク開発者ブログ
    sh19910711
    sh19910711 2024/09/25
    "Issueの起票は意外と手間がかかる / Slack上での会話を元にいい感じにIssueを起票する / これまでは、その会話を元に誰かがIssue化していたのですが、これをChatGPTにまるっとお願いしたら楽できる"
  • Google Cloud Next Tokyo '24 速報レポート(生成 AI における MLOps とリクルートの導入事例) - G-gen Tech Blog

    G-gen の坂です。当記事では、Google Cloud Next Tokyo '24 セッション「生成 AI における MLOps とリクルートの導入事例」に関する速報レポートをお届けします。 他の Google Cloud Next Tokyo '24 関連記事は Google Cloud Next Tokyo '24 の記事一覧からご覧いただけます。 概要 MLOps Rapid evaluation API Automatic metrics AutoSxS(Automatic side-by-side) 今後の展望 関連記事 概要 セッションでは、株式会社リクルートにおける生成 AI と MLOps の導入事例が紹介されました MLOps 従来の機械学習モデルと同様、生成 AI モデルも時間の経過とともに精度が低下していきます。 これは、学習データが古くなり、現実の状況にそ

    Google Cloud Next Tokyo '24 速報レポート(生成 AI における MLOps とリクルートの導入事例) - G-gen Tech Blog
    sh19910711
    sh19910711 2024/09/22
    "AutoSxS: ABテストのように、異なるモデル、異なるバージョンを比較評価する仕組み / Rapid evaluation API: 評価には、ポイントワイズとペアワイズを利用 / Automatic metrics: 要約なら「ROUGE-LSum」、テキスト⽣成なら「BLEU」"
  • Gemini「Notion も Markdown も Google ドキュメントに全部ぶちこめ」

    Notion に保存しているメモを Gemini のセマンティック取得 で扱えないか試していました。しかし、安全な(取得結果からインジェクションされない)コードを作る方法がいまいちわかりません。そんなとき「メモを Google ドキュメントに変換したら Gemini から簡単に扱えるのでは」と思いつきました。 少し試してみたところ「とくに分類もせず雑多に保存していたメモ」を活用しやすくなったので、同じようにメモをとっている方の参考になればと思い記事にしてみます。 想定している読者 気になることなどがあれば「とにかくメモしておく」という人 メモを AI チャットボットで活用したいけど「RAG とかセマンティック取得とかはちょっと」という人 ChatGPT や Claude よりも Gemini を選んでしまうへそ曲がりな人たち なお、Gemini のチャットアプリなどを使いますが、知識として

    Gemini「Notion も Markdown も Google ドキュメントに全部ぶちこめ」
    sh19910711
    sh19910711 2024/09/21
    "Notion に保存しているメモを Gemini のセマンティック取得 で扱えないか / 少し試してみたところ「とくに分類もせず雑多に保存していたメモ」を活用しやすくなった"
  • Reasoning Engine(LangChain on Vertex AI)でLangGraphのエージェントを動かす

    Reasoning Engine(LangChain on Vertex AI)でLangGraphのエージェントを動かす はじめに Google Cloud Next'24 で発表されたReasoning Engine(LangChain on Vertex AI)で、 LangGraph を使ったエージェントを構築する流れをご紹介します。 2024/9 時点で特に日語の情報が少ないため、少しでも参考になれば幸いです。 おことわりと注意 LangChain や LangGraph が何かといったことは解説しません。 Reasoning Engine(LangChain on Vertex AI)は 2024/9 時点でプレビューの機能です。 Reasoning Engine(LangChain on Vertex AI)とは Reasoning Engine とは、LLM アプリ構築の

    Reasoning Engine(LangChain on Vertex AI)でLangGraphのエージェントを動かす
    sh19910711
    sh19910711 2024/09/21
    "Reasoning Engine: LangChain on Vertex AI + Google Cloud Next'24 で発表 / 事前定義されているreasoning_engines.LangchainAgentのテンプレートをカスタム"
  • Cloudflare Workers AIを使って画像生成機能を製品の機能として組んだ時に考えたこと

    Cloudflareには色々な機能がありますが、昨今はAIにも力を入れており色々なモデルがCloudflare Workersで動かすことができます。 その中で今回は画像生成(その中でもimage to image)を使って製品の機能として組み込んでみたのでその時に考えたことを軽いTIPS的な記事として書いておきます。 導入経緯(前提条件) 私はGoens(ゴエンズ)というサービスを運用しています。 平たく言うと高齢者向けのマッチングアプリだと思ってもらって結構です。(有名どころのマッチングアプリより緩い感じですが) その中で様々な課題があるんですが、AIよる画像生成機能を入れた理由は以下です。 年配の方向けなので、どうしても若い人よりプロフィール画像の重要性という点に意識が少し低い方がいらっしゃる 自分自身をどう撮るとうまく撮れるかがあまりわかっていない方もいらっしゃる 異性のプロフィー

    Cloudflare Workers AIを使って画像生成機能を製品の機能として組んだ時に考えたこと
    sh19910711
    sh19910711 2024/09/18
    "image to imageの他にwisperやllamaなど有名どころのモデルも存在 / ドキュメントに無いですが色々試してみた結果から negative_prompt をAI呼び出しのパラメータに含めてると効いてると思われ"
  • 初心者でもできる!HuggingFaceモデルをGGUF形式に変換しOllamaで使う手順 - uepon日々の備忘録

    最近、AIのことは一応触ってはいますが、ちっともわからない状況です🫠 先日までOllamaを使用していたのでローカルLLMについてはなんとなく分かってきた様でもありという状況ですが、OllamaはGGUF形式のモデルが使えるとはいえ、すべてのモデルがGUFF形式で公開されているというわけはありません。 リポジトリ内には拡張子が無いモデルのファイルがあって…これ何?って感じです。なんとなく分かってきたのはHuggingFaceにで公開されているモデルはHFって呼ばれるモデルのようですが…。どこかに名言されてるんでしょうか🙇 ということで、HuggingFaceに公開されているHFモデルをなんとかしてOllamaでも使用可能なGGUF形式に変換できないかという内容でチャレンジしてみたいと思います。 (2024.09.11)Ollamaに作成したGGUF形式のモデルをpullする方法のリンク

    初心者でもできる!HuggingFaceモデルをGGUF形式に変換しOllamaで使う手順 - uepon日々の備忘録
    sh19910711
    sh19910711 2024/09/15
    "HuggingFaceに公開されているHFモデルをなんとかしてOllamaでも使用可能なGGUF形式に変換できないか / 今回の変換ツールも、このllama.cppに同梱(ビルドで生成されるものを含む)され"
  • Vercel AI SDK Core + Gemma 2を使って記事のカテゴリ分類タスクを開発する

    Vercel AI SDKはLLMを活用したアプリケーションを構築できるように設計されたTypeScript製のツールキットです。チャットボットの構築に伴う定型的なコードを排除して、質的な部分の開発に集中することを可能にします。 しかしVercel AI SDKは何もチャットボット開発だけに使えるわけではありません。たとえばLangChainのように様々なモデルとツールを組み合わせて、複雑なタスクを解決するデータパイプラインを構築することも可能です(Pythonの豊富なライブラリと比べるとまだまだ実現できることは限定的ですが)。 Vercel AI SDKは、主に次の3つのコンポーネントで構成されています。 AI SDK Core: LLMを使用してテキスト、構造化オブジェクト、ツール呼び出しを生成するための統一APIを提供します。 AI SDK UI: チャットや生成UIを迅速に構築す

    Vercel AI SDK Core + Gemma 2を使って記事のカテゴリ分類タスクを開発する
    sh19910711
    sh19910711 2024/09/15
    "Vercel AI SDK: LLMを活用したアプリケーションを構築できるように設計されたTypeScript製のツールキット / モデルとツールを組み合わせて、複雑なタスクを解決するデータパイプラインを構築することも可能"
  • pytestでLLMプロダクトをLLMで評価するLLM-as-a-Judgeをやってみた

    概要 LLMプロダクトの品質をLLMで評価するLLM-as-a-Judgeのシンプルな実装を紹介した記事になります。 対象読者 LLMのAPIOpenAI, Anthropic等)を使ったプロダクト開発に関わったことがあるまたは興味がある人を対象としています。 この記事を書こうと思った動機 自分は2023年の夏頃からLLMを利用したプロダクト開発に関わっています。そのなかでもLLMプロダクトのテストには頭を悩ませています。 プロンプトを少し調整したり、RAGの元になる参照データを少し追加するだけでプロダクトの品質が大きく変化してしまうことがあります。 最近以下の記事を見ました。 この記事はLLMプロダクトの評価に関する内容がまとまっておりとても参考になりました。 自分もこの記事の影響を受けて、具体的なテストコード実装方法をアウトプットしてみようと思い記事を書きました。 LLM-as-a-

    pytestでLLMプロダクトをLLMで評価するLLM-as-a-Judgeをやってみた
    sh19910711
    sh19910711 2024/09/14
    "pytest.mark.parametrize にデータを渡す / 評価項目と評価基準、評価のアウトプット形式の指定 / 予算が許すのであれば開発初期段階から LangSmith のようなLLMプロダクトの検証ツールを導入したほうが楽"
  • Dataform での Gemini によるコード生成機能を試してみました

    はじめに こんにちは、クラウドエース データソリューション部の田中です。 クラウドエース データソリューション部 について クラウドエースの IT エンジニアリングを担う システム開発統括部 の中で、特にデータ基盤構築・分析基盤構築からデータ分析までを含む一貫したデータ課題の解決を専門とするのが データソリューション部 です。 弊社では、新たに仲間に加わってくださる方を募集しています。もし、ご興味があれば エントリー をお待ちしております! データソリューション部では、Google Cloud が提供しているデータ領域のプロダクトについて、新規リリースをキャッチアップするための調査報告会を毎週実施しています。 新規リリースの中でも、特に重要と考えるリリースを記事としてまとめ、ページのように公開しています。 今回紹介するリリースは、2024 年 5 月 10 日にリリースされた「Dataf

    Dataform での Gemini によるコード生成機能を試してみました
    sh19910711
    sh19910711 2024/09/07
    "Dataform を用いたデータパイプラインの作成時に、生成 AI の力を借りる / クエリエディターにて、「Help me code」というボタンが追加 / プロンプトを入力することで、Gemini が SQL を生成してくれる"
  • 【LLMの量子化】phi-3-mini-4kを軽量化してCPUで動かす - Qiita

    はじめに こんにちは!ザワッチです! 今回は、巷で話題のローカルLLM「phi-3-mini-4k」をGPUではなく、CPUで動かそうと思います。 phi-3について phi-3はMicrosoft社が開発しているローカルLLMで、高品質なデータセットが学習しているがために、少ないパラメータ数でもパフォーマンスを発揮しており、とても注目されています。 最近では、ファミリーモデルとして画像入力にも対応しているphi-3-visionやコンテキストが128kに対応している&より小さいパラメータ数のphi-3-mini-128kなど進化が目覚ましいです。 phi-3-mini-128kモデルはiPhone15での動作も確認されているようで、エンド2エンドでの推論が既に実現されています。 最近になって、phi-3.5-miniも出てきています。 phi-3の詳細情報は以下のリンクをご確認ください。

    【LLMの量子化】phi-3-mini-4kを軽量化してCPUで動かす - Qiita
    sh19910711
    sh19910711 2024/09/06
    "KVキャッシュの量子化 / 量子化モデルはノーマルモデルの約3分の1ほどの速さで生成している + 翻訳タスクに関しては、量子化モデルは6.29秒でかつ正しい内容"
  • 音声AIエージェントの世界とRetell AI入門 / Introduction to the World of Voice AI Agents and Retell AI

    StudyCo 【LT大会#8】LLMの活用・機械学習データ分析関係のいろいろな話題にふれようの資料です https://studyco.connpass.com/event/328389/ スライド内(P20)のデモ動画リンク: https://x.com/ry0_kaga/statu…

    音声AIエージェントの世界とRetell AI入門 / Introduction to the World of Voice AI Agents and Retell AI
    sh19910711
    sh19910711 2024/09/06
    "Retell: LLMをベースに音声AIに必要な要素をフルスタックに提供 / プロンプトベースでの挙動制御が可能 + フローも組める / 購入した電話番号を利用してインバウンド・アウトバウンドコールが可能"
  • Geminiを使ってYouTube動画の要約を試してみた|ゼンリン東海(AI部)

    こんにちは、ゼンリン東海の馬場です。 GeminiでYouTube動画の要約を行うことができるので、要約できない動画があるか、どうやって要約を作らせると良いかを検証してみました。 字幕のない動画どうやって要約を行っているか、Geminiに直接聞いてみたところ、 動画からテキスト情報を抽出し、そのテキストを分析することで 要約を作成しているという回答が返ってきました。 その場合は、字幕がない動画は要約できない可能性が高くなりますので、 実際にアメリカヤマシギが歩いているだけの動画を要約させてみました。 要約Geminiの作成した要約アメリカヤマシギをアメリカヨタカと誤認識し、 羽ばたきや鳴き声を上げるなど、動画と異なる内容となっているため、 予想した通り、映像を見ないとわからない動画は要約できないようです。 要約の作らせ方先ほどと同じurlを渡す方法以外に、タイトルを渡す方法と、動画の字幕デ

    Geminiを使ってYouTube動画の要約を試してみた|ゼンリン東海(AI部)
    sh19910711
    sh19910711 2024/09/06
    "アメリカヤマシギが歩いているだけの動画を要約 + 映像を見ないとわからない動画は要約できない / なぜかURLを渡した場合よりもタイトルを渡した場合のほうが、読みやすい要約を得られる傾向"
  • ローカル環境でQwen2-VLを動かしてみる

    1. Mac Studio(M2 Ultra 128GB) 2. Windows 10 (メインメモリ 96GB + RTX 3060 12GB) 内容 今回の記事では、Alibaba Cloudが発表した最新のVLMであるQwen2-VLを、ローカル環境で実際に使ってみようと思います。 記事では、主に下記についてまとめます。 ローカル環境でQwen2-VLを動かす方法 Windows, Ubuntu, Mac Mac環境で動かすときの注意点 Qwen2-VLの使用例(画像+テキスト) 推論速度(実測) ただし、2BモデルはVRAMが12GB以上無いと動かない、もしくは動いてもかなり遅い可能性があります(8GBでもギリギリ動くかも)。7Bモデルは24GBあっても足りないかも知れません。

    ローカル環境でQwen2-VLを動かしてみる
    sh19910711
    sh19910711 2024/09/05
    "Qwen2-VL: Alibaba Cloudが発表した最新のVLM + 2Bでも日本語や数式のOCR性能がかなり高い + 数式のOCR性能がめちゃくちゃ高く、ほぼそのままTeX形式として取り込めた"
  • PGliteとClaude APIをつかってクライアントだけでRAGする | DevelopersIO

    Introduction ここにあるように、Anthropic社がClaude APIに対してCORSサポートを追加しました。 これによってブラウザから直接Anthropicのモデルを呼び出すことができるようになってます。 ちょっと前にPGliteというWASM版PostgreSQLもリリースされました。 これはpgvector(Postgres用のvector類似性検索)などの拡張機能も使えます。 今回はこれらを使用してクライアントサイドのみでVector検索とClaude apiを使って RAGをやってみます。 Claude API with CORS Claude APIがCORSサポートされたことで、 クライアントサイドから直接Claude APIが呼び出せるようになります。 いままではサーバを立ててそこを経由してAPIを呼び出す必要がありましたが、それも必要ありません。 しかし、

    PGliteとClaude APIをつかってクライアントだけでRAGする | DevelopersIO
    sh19910711
    sh19910711 2024/09/05
    "Anthropic社がClaude APIに対してCORSサポートを追加 / ちょっと前にPGliteというWASM版PostgreSQLもリリース + pgvectorなどの拡張機能も使えます"
  • LangChainにコントリビュートした話

    はじめに ストリーツ株式会社の@hanamaです。 今回は、LangChainというOSSにコントリビュートした話を書きたいと思います。 LangChainとは LangChainとは、LLM分野で広く利用されているライブラリです。LLMを絡めた複雑なワークフローの実装が可能で、ToolやRAGなどの追加機能も簡単に導入することができます。 執筆時点でGithubリポジトリのstar数は91.4k、毎週100~200コミットが行われている非常に活発なOSSです。 コントリビュートのきっかけ 弊社のプロダクトはメディア向けの生成AIサービスであり、ある程度まとまった長さの文章を生成させる必要がありました。多くのLLMでは、出力文章の長さが一定の値を超えると、そこで出力が強制的にストップしてしまいます。そのため、出力が停止した理由を確認し、長さが原因だった場合は続きを生成させる必要があります。

    LangChainにコントリビュートした話
    sh19910711
    sh19910711 2024/09/05
    "DosuBot: issueやPull Requestに対してこのBotがトリアージを行ったり適切なラベルを付けてくれる + Q&Aのトピックについては、一次解答をDosuBotが行っている"
  • 生成AIとブラウザ拡張でZennやQiitaや技術ドキュメントに確認問題モジュールを挿入する

    技術記事なりドキュメントなりを読む時、ページ末尾に確認問題があると理解度チェックができて嬉しいなと思ったので、その手のモジュールを挿入するブラウザ拡張を作りました。 完成品 chrome拡張を使用することで、こんな感じ⇩にZennやQiitaの記事の末尾に確認問題が表示されるようになります。問題はGPT4o-miniで生成されます。特にアカウント登録などは必要なく、chrome拡張を有効化したら自動でモジュールが挿入されるようになります。 Zenn記事では、リアクションボタンの下に4択問題が挿入される また、ZennとQiita以外では、MDNとPostgreSQL文書にも対応しています。そのうち他の公式仕様書とかにも対応するかもしれません。 MDN記事では、関連項目の箇所に4択問題が挿入される chrome拡張は以下で公開しています。 スマホの方は以下のページをどうぞ。既存のクイズを解け

    生成AIとブラウザ拡張でZennやQiitaや技術ドキュメントに確認問題モジュールを挿入する
    sh19910711
    sh19910711 2024/09/05
    "ちょうどいいハズレ選択肢を作るのは難しい / 正解を作らせるのは難しくないのですが、ハズレ選択肢を作らせるのは一苦労 / 部分的に正解、みたいなものが出力されかねません。教習所みたいなやるせなさ"
  • llama.cpp で gemma2 2B/9B を CPU で動かし日本語性能味見する

    Translate into English: 2010年5月22日、ビットコインの開発者がピザ屋からピザ2枚を注文し、別の開発者の家に届け、1万ビットコインと交換。 初めてビットコインを利用した商取引が成立した瞬間となった。当時のビットコインの価値は1BTC=約0.2円であったが現在の価値に換算すると(1BTC=550万円)、このピザは1枚約275億円ということになる。 **Translation:** On May 22, 2010, the Bitcoin developers ordered two pizzas from a pizzeria and delivered them to a different developer's home, exchanging them for 10,000 Bitcoin. This marked the first recorded t

    llama.cpp で gemma2 2B/9B を CPU で動かし日本語性能味見する
    sh19910711
    sh19910711 2024/09/05
    "gemma2 はかなり日本語性能の改善が見受けられ + CPU でぺろっと動いて日本語性能も 2B でも実用的に扱える / 翻訳とかは 2B で行い, 深い考察などしたいときは 9B 使う / llama-cli -m models/gemma-2-2b-it-Q6_K_L.gguf -t 10 -p ..."
  • PromptyとLangChainを使ってGemini Flash(gemini-1.5-flash)から出力を得る

    はじめに この記事ではMicrosoftが提供するPromptyを使ってGeminiを操作する方法について説明します。 Promptyとは GitHubの記載によると以下のように説明されています。 Prompty is an asset class and format for LLM prompts designed to enhance observability, understandability, and portability for developers. The primary goal is to accelerate the developer inner loop. 訳:PromptyはLLMプロンプトのためのアセットクラスとフォーマットで、開発者のための観測可能性、理解可能性、移植性を高めるように設計されています。主な目的は、開発者のインナーループを加速することです

    PromptyとLangChainを使ってGemini Flash(gemini-1.5-flash)から出力を得る
    sh19910711
    sh19910711 2024/09/05
    "basic.promptyというファイルにプロンプトやAIの設定を書いておき、main.pyでそれを読み込んで実行 / 設定とロジックを分離することができ、コードが簡潔になる"
  • Knowledge Bases for Amazon Bedrock にテーブルデータをインポートする - Qiita

    はじめに Knowledge Bases for Amazon Bedrock では S3, Confluence, Sharepoint, Salesforce, ウェブページなどのデータソースをサポートしています。 データはドキュメントという単位で管理されドキュメントには付随するメタデータも定義することが可能です。 最もシンプルなデータの投入方法としては S3 に直接ファイルを投入し同期することです。その際メタデータを Lambda で自動生成するフックを活用しメタデータ作成を自動化することも可能です。 一方で Knowledge Bases for Amazon Bedrock に投入したいデータがテーブルデータの場合(例: データベースやログサービスからエクスポートした CSV データ)の場合、CSV ファイルをそのままアップロードした場合はファイルが一つのドキュメントとして管理さ

    Knowledge Bases for Amazon Bedrock にテーブルデータをインポートする - Qiita
    sh19910711
    sh19910711 2024/08/31
    "Advanced Parsing: 2024/07/10 に追加 + CSV ファイルをそのまま S3 にアップロードし、Knowledge Base 側でファイルを行ごとにインポートし、指定した列でコンテンツとメタデータを作成"
  • LLMの回答の不確実性を定量化する - Qiita

    1. はじめに 大規模言語モデル(LLM; Large Language Model)の導入がビジネスや生活の中で進んできています。LLMを活用する際、LLMが事実と異なる出力をするハルシネーション(幻覚)と呼ばれる現象に悩まされる方も多いと思いますが、ハルシネーションを回避・低減する方法の研究も進んでいます(たとえば、L. Huang et al., 2023をご覧ください)。記事では、LLMの回答の不確実性を定量化し、それをもとにハルシネーションを検出する手法を提案した、Google DeepMindによる論文 To Believe or Not to Believe Your LLM を簡単に紹介します。(LLMの概要や基礎的な理論についてはこちらの記事をご参照ください。) 以前の記事では、LLMの内部状態を解析することでハルシネーションを検出するLLM factoscopeという

    LLMの回答の不確実性を定量化する - Qiita
    sh19910711
    sh19910711 2024/08/31
    "epistemic: 正解に関する知識が欠如 + データやモデルのキャパシティが十分でない / aleatoric: ランダム性に起因 + 妥当な回答が複数ある場合など / TriviaQA,AmbigQA,WordNetを使い、ハルシネーションの検出精度を検証" arXiv:2406.02543