2023年7月5日のブックマーク (3件)

  • さくらのクラウド高火力プランを使って大規模言語モデル(LLM)を動かしてみよう 〜前編〜 | さくらのナレッジ

    さくらインターネットの芦野と申します。 この記事では、いまChatGPTなどで話題となっている大規模言語モデルについて話をしたいと思います。どうぞよろしくお願いいたします。 自己紹介 軽く自己紹介をさせていただこうかと思います。さくらインターネット クラウド事業部 クラウドサービス部で、さくらのクラウドのバックエンド開発やインフラ開発をやっています。また、弊社で衛星データプラットフォーム・Tellusというものもやっておりまして、そちらのバックエンドも作っています。Twitterもやっていますので、フォローしていただけるとうれしいです。 それから、経歴の紹介なんですけれども、10年くらい前に、地元である宮城県仙台市の専門学校で学んでおりました。この専門学校でOSC 2012 Sendaiというイベントが開催されて、偶然ではありますが自分はここで初めてOSCに参加して、OSSという素敵な世

    さくらのクラウド高火力プランを使って大規模言語モデル(LLM)を動かしてみよう 〜前編〜 | さくらのナレッジ
  • PaLMを活用してGoogle Cloudで文章回答AIを構成してみた - Qiita

    はじめに こんにちは、京セラコミュニケーションシステム 森田 (@kccs_kai-morita)です。 先日Google Cloudにて扱える生成AIことPaLM APIがGAになりましたので、Google Cloudのサービスを組み合わせて特定の文章に質問回答ができるAIシステムをデモ的に作ってみました。 :::note info 記事は2023年6月ごろに作成しております。 ::: この記事の対象者 Google Cloudにおける生成AIの活用サービスに興味ある方 細かい設定やコードなどサービス個別の情報は別途記事を書く予定です。 プロセスの概要 目標は特定の文章(たとえば社内の文章)に対する質問を投げると、その問い対して回答が得られることです。 これは次の2つのステップで実現します。 質問文に関連する文章をデータベースから探索する 探索した文章をもとに文章生成AIが質問に対する

    PaLMを活用してGoogle Cloudで文章回答AIを構成してみた - Qiita
  • OpenAIの埋め込みよりも高性能?多言語E5を日本語で評価してみる - Ahogrammer

    多言語のテキスト埋め込み用のモデルであるMultilingual-E5-largeの性能を日語のデータセットで評価してみました。 E5とは E5とはEmbEddings from bidirEctional Encoder rEpresentationsの略で、テキストの埋め込み用のモデルです[1]。Web上から収集した大規模なテキストペアのデータセット(CCPairs)で対照学習したあと、NLIやMS Marcoなどの高品質なデータセットで学習しています。情報検索のベンチマークであるBEIR[2]や埋め込みのベンチマークであるMTEB[3]で評価されており、MTEBではOpenAItext-embedding-ada-002を上回る性能が報告されています。 MTEBの結果。平均的な性能で`text-embedding-ada-002`を上回っている。 CCPairsはWeb上から収集

    OpenAIの埋め込みよりも高性能?多言語E5を日本語で評価してみる - Ahogrammer
    gengohouse
    gengohouse 2023/07/05
    “OpenAIの埋め込みよりも高性能?多言語E5を日本語で評価してみる”