こんにちは。エムスリーエンジニアリンググループのコンシューマチームに所属している園田です。 普段の業務では AWS やサーバーサイド、フロントエンドで遊んでいるのですが、最近はもっぱら OpenAI や Claude3 で遊んでます。 今回は、最近巷で話題の LLM ローコード構築ツールである Dify の OSS 版を AWS のマネージドサービスのみを使って構築してみました。 DifyとはオープンソースのLLMアプリ開発プラットフォームで、様々なLLMを使用してChatGPTのGPTsのようなものがノーコードで簡単に作れます。 引用元: DifyでSEO記事作成を試してみる|掛谷知秀 試しにAskDoctorsのガイドラインHTMLをナレッジ登録してみた ローカル環境で Dify を構築する記事はたくさん見かけますが、AWS のマネージドサービスで構築する内容は見かけなかった*1ので公
独自ベンチマーク「ELYZA Tasks 100」を開発 モデルの性能評価では、2023年に独自のベンチマークテスト「ELYZA Tasks 100」を作成・公開している。これは、生成AIのテキスト出力を評価する指標で、100個の質問に答えた結果を人間が評価するものだ。 「当時は文章から単語を抜き出すようなベンチマークしかなく、チャットボットに期待する性能とは違った。そこで物語作成や歴史、算数など幅広い100のタスクからなるベンチマークを開発した。問題と出力結果、スコアもすべて公開し、公平性と透明性を重視している」 「RAGはそんなに簡単じゃない」 2024年の生成AI活用において、企業が持つ固有の知識をLLMに学習させる「RAG」(Retrieval-Augmented Generation、検索拡張生成)という手法に注目が集まっている。RAGは、関連する情報をLLMに検索・抽出させ、そ
デジタル庁では、デジタル社会の実現に向けた重点計画(令和4年6月7日閣議決定)を踏まえ、AIの実態と動向を把握し、リスクと必要な対応策を特定したうえで、官民における適切な活用の検討を進めています。 昨今の生成 AIなどの技術革新により、さまざまな利点を得られるようになってきており、政府としても、このような技術の動向を見極めつつ、関係省庁における生成AIの業務利用について、第10回デジタル社会推進会議幹事会・書面開催など議論を重ねてきました。 これまでの議論の経緯も踏まえ、デジタル庁では、2023年12月より生成AIの適切な利活用に向けた技術検証を実施しました。2023年度の検証結果の全体的な内容と、検証で得られた具体的な生成AIへの入力文のサンプル、一部検証に用いたテストケースを公開します。 技術検証の目的今後の政府情報システムへの生成AI利活用に向けて以下のような具体的な知見を得ることを
Dify(ディファイ)。一言で言うなら生成AIプログラム構築のためのノーコードツールという感じです。 いままで生成AIを利用しようとするとAPIを発行しプログラムを作り・・・。と決してハードルは低くはありませんでした。 それを簡単にしかもノーコードで。さらにはコードも記載できることで複雑な仕様にも対応できるというサービスです。では、どのようなことができるのか。そして実際に作成してみた内容を解説します。 Dify(ディファイ)とは? Dify(ディファイ)とは「LangGenius, Inc.」が提供するサービスで、オープンソースのLLMアプリ開発プラットフォームです。 RAGを使用してエージェント形式のチャットボットから複雑なAIワークフローなどをノーコードで、LLMアプリを作れるサービスです。 LangChainをご存じの方であれば、それをもっとノーコードで簡単にしたものととらえていただ
また、AWSのリージョンは「バージニア北部 (us-east-1)」を使用します。 (東京リージョンでは利用できるモデルが限られるため) 準備 Lambda関数の作成を始める前に、いくつか準備をします。 Bedrockの「モデル」を利用可能にする Bedrockマネジメントコンソールの「モデルアクセス」から、利用したい「モデル」へのアクセスを有効化しておきます。 Lambdaレイヤーの作成 Lambda関数の標準状態ではLangChainのPythonパッケージが含まれていないため、Lambdaレイヤーを使ってパッケージが利用できるようにします。 Lambdaレイヤーの作成と利用の方法は、下記ブログ記事を参考にしてください。 Lambda関数で使用するPythonと同じバージョンのPythonが使用できる環境で、LangChainのパッケージを含むzipファイルを作成します。 $ mkdi
当記事ではAnthropic Prompt libraryのプロンプト集の中から、ITエンジニア視点で日常業務で役立つプロンプトを紹介します。 Anthropic Prompt libraryとは 注意点 前提 ちなみに 分類 文章処理系 Cite your sources - 情報源を引用する その他 Meeting scribe - 会議の書記 Prose polisher - 散文研磨者 Second grade simplifier - 2 年生の単純化子 Grading guru - 採点の第一人者 Grammar genie - 文法の魔神 PII purifier - PII 浄化装置 Adaptive editor - アダプティブエディター Memo maestro - メモマエストロ 分析系 Corporate clairvoyant - 企業の透視能力 Ethical
ChatGPTとLLMシステム開発について纏めた187ページ資料です。 2024/04 名称を改め資料を大幅にアップデートしました! 今後も随時更新していきます。 データサイエンティスト協会での発表動画はこちら。 https://youtu.be/l9fpxtz22JU Build Japanでの発表はこちら。 https://youtu.be/UEZzx6a005g?si=Ot8EO2bv8yhQQEcy 2023/7/28 体裁修正、余計なページを削除 2023/12/12 RAG、API仕様、モデルのページを追加。また情報を最新化。 2024/04 名称を改め資料を大幅にアップデートしました! 1. LLM - GPTの全体像 LLM - GPT とは何なのか ~チャットAIを例にした動作イメージ~ 大規模言語モデル(LLM)が持つ基礎能力 デジタルツールとLLMの連携 GPTに関す
※ この記事は、AWS (Amazon Web Services) の技術支援を受けて執筆しています。 はじめに この記事はコネヒトアドベントカレンダー 8日目の記事です。 コネヒト Advent Calendar 2023って? コネヒトのエンジニアやデザイナーやPdMがお送りするアドベント カレンダーです。 コネヒトは「家族像」というテーマを取りまく様々な課題の解決を 目指す会社で、 ママの一歩を支えるアプリ「ママリ」などを 運営しています。 adventar.org こんにちは!コネヒトの機械学習エンジニア y.ikenoueです。 突然ですがみなさん、Amazon Bedrockをご存知でしょうか。 aws.amazon.com Amazon Bedrock(以下、Bedrock)は、テキスト生成AIをはじめとする基盤モデル (Foundation Model)*1を提供するAWS
自社における日本語LLMの開発について発表したのは、株式会社サイバーエージェントの石上亮介氏。Weights & Biasesのユーザーカンファレンス「W&Bカンファレンス」で、開発において得た知見や課題、Weights & Biasesの活用法について話しました。 登壇者の自己紹介とアジェンダの紹介 石上亮介氏:それではサイバーエージェントの石上から、「CyberAgentにおける日本語LLMの開発」というタイトルで発表いたします。 あらためまして自己紹介ですが、私は石上と申します。現在は、サイバーエージェントの基盤モデルプロジェクトのリードを担当しています。 基盤モデルというのは、大規模なAIでさまざまなタスクがこなせるという、いわゆるすごいAIなんですね。今日は特にLLMですね。大規模言語モデルについて、どういう取り組みをしているかをお話しいたします。 サイバーエージェントのLLMの
Research部門の近江崇宏です。 先日、ストックマークではビジネスのドメインや最新情報(2023年9月まで)に対応した130億パラメータの大規模言語モデル(LLM)であるStockmark-13bを公開しました(Stockmark-13bの詳細に関しては、こちらのブログを参照ください)。 今回、Stockmark-13bに対して追加の学習を行い、ユーザーの指示に従うように訓練したStockmark-13b-instructを公開します。 モデルはHuggingface Hubからダウンロードいただけます。 Stockmark-13b-instructのライセンスはCC BY-NC-SAで、研究目的のみにご利用いただけます。 https://huggingface.co/stockmark/stockmark-13b-instruct 当社は理化学研究所の共同研究プロジェクトである「LL
2023年10月18日紙版発売 2023年10月18日電子版発売 吉田真吾,大嶋勇樹 著 B5変形判/280ページ 定価3,300円(本体3,000円+税10%) ISBN 978-4-297-13839-4 Gihyo Direct Amazon 楽天ブックス ヨドバシ.com 電子版 Gihyo Digital Publishing Amazon Kindle ブックライブ 楽天kobo honto この本の概要 本書は,ChatGPTのAPIとLangChainを使って,大規模言語モデル(LLM)を本番レベルのシステムに組み込むための知識をステップバイステップで学習し,手を動かしながら実践できる書籍です。 生成AIが登場し,APIやフレームワークのエコシステムが充実してきたことによって,これまで機械学習やプログラミングの十分な知識が必要だったことに対してアプリケーション開発者が挑戦し
はじめに ベクタストアとは? ベクタを使ったユースケース ベクタストアを使うメリット pgvectorについて pgvectorとは? なぜpgvectorか? 構成 始めかた 1. Amazon RDS for PostgreSQLの起動〜EC2で接続 2. vector拡張機能の有効化 2-1. 上記手順で構築したEC2、またはお使いのpsgl実行環境から、PostgreSQLにログイン 2-2. vector拡張機能を有効化 2-3. PostgreSQLへ接続するユーザーへTableへのアクセス権権付与 3. Amazon Bedrockの有効化 4. Google Custom Searchの設定 5. AWS Lambda(LangChain)の実装 6. スクリプト実行後の確認 おわりに 参考リソース はじめに こんにちは。エンタープライズ部のウルフです。 世間は生成AIブー
第13回は、企業データを追加学習する方法の1つであるファインチューニングについて、その課題を解決する「RAG」と「エンべディング」を解説します。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く