タグ

promptに関するsh19910711のブックマーク (337)

  • データコンペでCode Interpreter片手に戦ってみたけど惨敗でした

    yukiCup2023Summerに参加しました 「君はバイク乗りを救えるか」というタイトルの内輪のデータコンペにお誘いいただき参加しました。 コンペの内容は、中古バイクの販売価格を予測するというテーブルコンペで、1日(8時間)という期間で競うコンペでした。 コンペは、SIGNATEさんのコンペに参加したくらいで、まともなデータコンペは、ほとんど初めて(一応、サブミットはできて、PublicとPrivateの違いはわかる程度)の初心者でした。 一方、参加者は、Kaggleグランドマスターが複数名、Kaggleマスターが複数名、エキスパート多数という異常なハイレベル(ていうか、グランドマスターってそんなポコポコいるものなの??) これはチートせざるをえないということで、覚えたてのChatGPT Code Interpreterを武器に戦うことに。 ある程度使えるので、これはいいところまでいけ

    データコンペでCode Interpreter片手に戦ってみたけど惨敗でした
    sh19910711
    sh19910711 2024/06/07
    "教えてもらったコードをLightGBMを使える環境(Kaggle Notebook)で実行して、エラーメッセージをCode Interpreterに教えるという、AIの奴隷 / あえて特徴量に入れない(シェイクを避ける)" 2023
  • 社内の生成AIチャットとしてLibreChatを使っています - Ateam Tech Blog

    こんにちは。エイチームライフデザイン技術開発室の鈴木です。 弊社ではGPT-4のような高性能な生成AIを社内の業務で利用できるように、Slack用アプリなどいくつかの社内ツールを用意しています。その中でも LibreChat というオープンソースソフトウェアを利用しているので、それについて説明します。 LibreChatとは 構成 バージョンアップ等の運用 LibreChatを使っていて起きた問題 新しいモデルがなかなか使われない Banされる RAGが使えなくなる 画像認識が使えない LibreChatの利用状況 まとめ 画像の出典 LibreChatとは www.librechat.ai LibreChatとは、いわゆるChatGPTクローンです。 OpenAIなどが提供する言語モデルのAPIに接続してチャットできるUIを提供する、オープンソースのWebアプリケーションです。 Libr

    社内の生成AIチャットとしてLibreChatを使っています - Ateam Tech Blog
    sh19910711
    sh19910711 2024/06/07
    "LibreChat: PDFなどの文書ファイルをアップロードするとベクトル化して保存 / 利用料金についても、LibreChatの利用者全員がChatGPTの有料プランを利用したと仮定した場合と比較して大きく削減"
  • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

    はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

    【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】
    sh19910711
    sh19910711 2024/06/07
    "NVIDIAのサーバー用GPUだったため、BIOSからResizable BARやAvobe 4G Decodingなどの設定ができる新しめのマザーボードを用意する必要がありました / 高性能なGPUは複数スロットを占有してしまう"
  • UIUXデザイナーが「GPT4o」を活用してウェブサイトをつくってみた

    デジタルプロダクション「factory4」でアプリやさまざまなIoTプロジェクトUIUXデザインを手がける新谷友樹さんが、UIUXにまつわるトピックについて解説する連載。今回のテーマは「GPT4oを活用したウェブサイトづくり」です。 こんにちは!株式会社Cosmowayが組織するデジタルプロダクション「factory4」のUIUXデザイナー新谷です。 今回は先日OpenAIが発表した新たなAIモデル「GPT-4o」を使ってウェブサイト(LP)を作成してみました。GPT-4oのパフォーマンスを知ること、そしてデザイナーが生成AIとどう関わっていくべきかを探るきっかけにすることが、今回の目的です。 前提として「GPT-4o」がゼロベースでウェブページを作成することに向いているツールではないと思いますが、チュートリアルの要素と今後の可能性を知るためにあえて取り組んでみました。 GPT-4o

    UIUXデザイナーが「GPT4o」を活用してウェブサイトをつくってみた
    sh19910711
    sh19910711 2024/06/07
    "アプリのLPでよく使用される構成をレイアウト + 必要な画像ファイルや、表示するための実装手順も丁寧に教えてくれました / 現時点では実用に耐える高品質なLPの制作には、人間の手で微調整や品質管理を行うことが必要"
  • 時系列基盤モデルの世界 / The World Of Time Series Foundation Models

    【LT大会#7】LLMの活用・機械学習データ分析関係のいろいろな話題にふれようの資料です https://studyco.connpass.com/event/318107/

    時系列基盤モデルの世界 / The World Of Time Series Foundation Models
    sh19910711
    sh19910711 2024/06/07
    "時系列基盤モデル: GoogleのTimesFM、AmazonのChronosなどが登場 / PromptCast: 入力と出力をプロンプトに変換し、文から文を生成するタスクとしてLLMで時系列予測 + シーケンスを扱うタスクのため時系列データにも適している"
  • オンプレミスで動かすLLM

    あらゆる産業で生成AIの活用が検討される中で、導入自体が難しい代表的な業界が製造業です。製造現場は基的に外部からネットワークが隔絶されており、GPTシリーズのようなLLM(大規模言語モデル)を利用することができません。従来であればエッジコンピューティングに代表されるようなオンプレミスでの運用も考えられますが、LLMは実行するコンピュータへのハードウェア要求が非常に高いため、研究室機関レベルのコンピュータを用意する必要があり、一般的な工場にそのような機器を導入することは現実的ではりません。 自然言語モデルには “スケーリング則” と呼ばれる原理が存在します。スケーリング則とは、自然言語処理モデルのパラメーター数・データセットのサイズ・トレーニングに使用される計算量の3つの変数が大きくなればなるほど、パフォーマンスが良くなるというシンプルなルールです。スケーリング則に従えばお金を投入すればす

    オンプレミスで動かすLLM
    sh19910711
    sh19910711 2024/06/07
    "phiシリーズ: オンプレミス環境で動かすことが期待される小型LLMの急先鋒でしたが、発表当初のライセンスは商用利用不可 + phi-2のライセンスがMITライセンスに変更され、商用利用が可能となった"
  • LangGraphを用いたマルチエージェント

    A passwordless future! Passkeys for Spring Developers

    LangGraphを用いたマルチエージェント
    sh19910711
    sh19910711 2024/06/07
    "時代の流れ: zero shot, few shot → function calling, RAG → agentic workflows, flow engineering / Flow Engineering: タスクをより小さなステップに分解 + LLMに回答を自己改善するように促す / AutoGen, langroid"
  • ナレッジグラフでスターウォーズファンに映画を推薦する|kiha

    人間の持つ知識を形式的に表現する、知識表現の研究は古くからなされてきており、例えば一つの形としてWebシステムではよくつかわれるリレーショナルモデルなどがある。近年よく着目されているのがナレッジグラフであり、先端的な研究を超えて、実産業での活用事例(例えばGoogleのナレッジグラフサーチ)も多くみられるようになった。 記事では、noteのレコメンドシステムも手がけている筆者がWikidataのエンドポイントを利用して、ナレッジグラフを探索し、スターウォーズファンにおすすめできそうな映画をリストアップしてみる。最終的にこんな感じのリストが得られる。スターウォーズファンのみなさまには、興味が惹かれるタイトルがあっただろうか? ナイト ミュージアム2 インディ・ジョーンズ/クリスタル・スカルの王国 地獄の黙示録 チャーリーズ・エンジェルフルスロットル ブレードランナー 2049 ジャッジ・ド

    ナレッジグラフでスターウォーズファンに映画を推薦する|kiha
    sh19910711
    sh19910711 2024/06/07
    "RDF: リレーショナルモデルとは異なり、主語・述語・目的語からなる / RDFにおいては、主語と目的語はURLのように唯一固有のIDをもち / SPARQLというSQLのようなSyntaxの問い合わせ言語がW3Cで定義"
  • LLMにまつわる"評価"を整理する

    「LLMの評価」というフレーズを見て、どんなことを思い浮かべるでしょうか? おそらく大半はLLMモデル自体の評価のことを思い浮かべると思います。新しいモデルが出てきた時に𝕏で見かける「GPT-4o のMMLUベンチマークは89%!」みたいなアレ。 ですが、プロダクト開発にLLMを使っている人の間では、プロンプト等が十分な品質を出しているかの確認などにも評価という言葉を使っていることは多いのではないかと思います。 うまい具合に後者を区別するためにいい感じの呼び名を付与したい気持ちがあるのですが、英語圏での例を見てみるとシンプルに"Evals"と呼んでることもあれば Evaluating LLM System Evaluating LLM-based Applications などなど表現の仕方は様々になっています。 そしてそのプロダクト開発文脈での評価も、実態としてはオフライン評価やオンラ

    LLMにまつわる"評価"を整理する
    sh19910711
    sh19910711 2024/06/06
    "リグレッション: より速い/安い/精度が高いモデルが出て変えたいな〜となったり、改善のためにアルゴリズムから変えることはよくある + 今まで守ってきた評価観点を満たせているかを確認する"
  • LLMとの共同執筆は文章の多様性を減らすか?

    sh19910711
    sh19910711 2024/06/06
    "ChatGPTの登場以降、使われるように・使われなくなった単語群の存在が示唆 / LLMと文章を書くとユーザー間の文章は似てくるか > InstructGPTだと似てくる + GPT3グループより有意に均質"
  • ChatGPTでOpenAPI定義からKarateのテストスクリプトを自動生成する - Taste of Tech Topics

    最近久々に近所のお祭りに行ってきました、屋台のべ物ではりんご飴が好きな菅野です。 皆さん、普段APIのテストはどのように行っておりますか? 最近は、APIのテスト自動化を行えるようなツールやサービスも増えてきているように思いますが、当社では、OSSのテスティングフレームワークである「Karate」を用いることが多いです。 比較的簡単な構文で直感的にAPIのテストができる点がよいと思います。 しかし、いかに簡単な方法でAPIのテストが記述できるからといっても、APIの数が多いとテストを作成するのは一苦労です。 今回は、そんなKarateのテストスクリプトをChatGPTを活用して作成してみようと思います。 まず、REST-APIの仕様を定義する場合、OpenAPIを利用することが多いのではないか、と思います。 ChatGPTの開発元である「OpenAI」ではないです。自分も書いていて、紛ら

    ChatGPTでOpenAPI定義からKarateのテストスクリプトを自動生成する - Taste of Tech Topics
    sh19910711
    sh19910711 2024/06/06
    "Karate: Gherkin(ガーキン)形式を用いて記述するAPIテストのためのフレームワーク + 比較的簡単な構文で直感的にAPIのテストができる点がよい / APIのテストだけでなく、UIテストやGatlingと連携した負荷試験等も幅広くできる" 2023
  • Azure AI Studioが一般公開(GA)されたので早速色々使ってみました! - CCCMKホールディングス TECH Labの Tech Blog

    こんにちは、CCCMKホールディングス TECH LABの三浦です。 いつの間にかこの会社に勤めて10年が経っていました。10年前はニューラルネットワークやディープラーニングが少しずつ浸透してきたころで、従来の機械学習とは何が違うのか、といったことを調べていた気がします。あれから10年、ディープラーニングの分野ではTransformerが生まれ、いつの間にか人の思考を代理でこなしてくれるようなAIまで誕生し、技術の進化のスピードにびっくりします。次の10年はどうなるんだろうと色々と考えてしまいます。 さて、今年に入ってからずっと楽しみにしていたのですが、ついにMicrosoftのAzure AI Studioが一般公開(generally available)になりました! 今年一番最初に見た動画がAzure AI Studioのデモ動画で、それがとても面白い内容でずっと気になっていました

    Azure AI Studioが一般公開(GA)されたので早速色々使ってみました! - CCCMKホールディングス TECH Labの Tech Blog
    sh19910711
    sh19910711 2024/06/06
    "Model catalog: ローカルで動かせるものを含めて現時点で1,600以上のモデル / それを動かすためのコンピューティングリソースを含めてその場でデプロイ / 基本形のRAGの処理であればコードを書かなくても作ることが ~ "
  • DifyをCloudRunとsupabase、upstashを使ってほぼ無料でデプロイする方法

    DifyはDBにpostgres、キャッシュにRedisを使っている。 また、ベクトルDBは複数選択可能ではあるが、Postgresのvectorを使うことも可能なので、postgresで統一させちゃう。 これらをRDSとかで立てようとするとイニシャルで料金がかかってしまうので避けたい。 supabaseはPostgresを安価に、upstashはRedisを安価に使えるので、これらを使う。 まず、supabaseとupstashでアカウントを作成し、DBを作成する。 作成するうえで特に困ることはないので、そのままコンソールをポチポチするだけでOK supabase: https://supabase.com/ upstash: https://upstash.com/ 作成するとHOSTやpasswordなど必要な情報がコンソールに表示されるので、それをdifyのdocker-compo

    DifyをCloudRunとsupabase、upstashを使ってほぼ無料でデプロイする方法
    sh19910711
    sh19910711 2024/06/06
    "Dify: ベクトルDBは複数選択可能ではあるが、Postgresのvectorを使うことも可能 / supabaseはPostgresを安価に、upstashはRedisを安価に使える / CloudRunのマルチコンテナを使う"
  • Stockmark-100b: ビジネスドメインに対応した1000億パラメータ規模の大規模言語モデルの事前学習 - Stockmark Tech Blog

    ストックマークは最近、ビジネスドメインに対応した1000億パラメータ規模の大規模言語モデルであるStockmark-100bの開発を行い、事前学習モデルと指示学習モデルをオープンソース(MITライセンス)として公開しました。この記事では事前学習における弊社の取り組みを紹介させていただきます。 プレスリリース: stockmark.co.jp 事前学習モデル: huggingface.co 指示学習モデル: huggingface.co 背景 2024年2月に国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)が実施する「ポスト5G情報通信システム基盤強化研究開発事業/ポスト5G情報通信システムの開発」に採択されました。これは、経済産業省の国内の生成AIの開発力強化を目的としたGENIACプロジェクトと連携して行われており、国内事業者に対して生成AIの開発に必要な計算資源の確保と利

    Stockmark-100b: ビジネスドメインに対応した1000億パラメータ規模の大規模言語モデルの事前学習 - Stockmark Tech Blog
    sh19910711
    sh19910711 2024/06/06
    "独自に収集しているWebページや特許のデータを用いて ~ / Megatron-LM: 古くから使われているレガシーな実装と、最近の世代のGPUでTransformerの演算の効率性を高めるライブラリであるTransformerEngineを用いた実装の二種類"
  • 生成UIで変わるのは作業効率化だけではない

    AppleGoogleが見据える生成UIの世界AIを活用した今後のUIデザインを考察する上で、プラットフォームを開発するAppleGoogleの動向は注目です。両社ともマルチモーダル大規模言語モデル(Multimodal Large Language Model / MLLM)の研究を進めており、その成果が公開されています。 Recent advancements in multimodal large language models (MLLMs) have been noteworthy, yet, these general-domain MLLMs often fall short in their ability to comprehend and interact effectively with user interface (UI) screens. In this p

    生成UIで変わるのは作業効率化だけではない
    sh19910711
    sh19910711 2024/06/06
    "Ferret-UI: モバイルアプリのUIを自動的に分析し、アクセシビリティや使いやすさの観点から改善案を提示 + Apple が開発 / アクセシビリティ、ユーザビリティ、一貫性の問題についてUIデザインの自動監査ができる"
  • プロンプトを5倍圧縮できる「LLMLingua-2」

    導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、サービスのシステム開発を行なっています。サービスではLLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 記事では、入力するプロンプトの圧縮を効率的に行うための技術、LLMLingua-2について解説します。 LLMLingua-2は、いくつかの手法を組み合わせることによって、品質を下げないままプロンプトを圧縮してくれます。 サマリー LLMLingua-2は以下の方法で、情報の欠落を抑えた上でプロンプトのトークン数を大幅に減らすことに成功しています。 ターゲットとなるLLM(GPT-4など)にプロンプトの圧縮タスクを行なってもらう そのデータを基に入力したプロンプトを構成するトークンの不要、必要を判断する機械学習モデルを作成する 入力に対して上記機械学習

    プロンプトを5倍圧縮できる「LLMLingua-2」
    sh19910711
    sh19910711 2024/06/06
    "LLMLingua-2: ターゲットとなるLLM(GPT-4など)にプロンプトの圧縮タスクを行なってもらう + そのデータを基に入力したプロンプトを構成するトークンの不要、必要を判断する機械学習モデルを作成"
  • LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較

    LLM-as-a-Judgeとは LLMをアプリケーションに組み込んでいると、LLMの出力を評価する必要が出てきます。 LLMの「出力は確率的である(毎回異なる)」ためです。 また、LLMの出力はハルシネーションを含む可能性がありますし、間違いではないにしてもサービス提供者の意図とは違った出力をエンドユーザーに提示してしまうかもしれません。 LLMの出力を評価して、出力が適切でないことを判定できれば、ユーザーには表示しない、出力を再度行わせる(出力をLLMに修正させるのもよいでしょう)というようなことができるようになります。 ただし、LLMのすべての出力を人が評価していたのでは、手が回りません。 そこで、注目されているのが、LLM-as-a-Judgeと呼ばれるLLMにLLMの出力を評価させる手法(以後、単に評価と呼ぶ)です。 評価にLLMを使えば、出力をすぐに評価し、評価結果をアプリケー

    LLMによるLLMの評価(LLM as a judge)の精度改善のための試行錯誤〜評価分割・モデル間比較
    sh19910711
    sh19910711 2024/06/06
    "LLM-as-a-Judge: LLMにLLMの出力を評価させる / GPT-4 Turboが最も精度が高いという結果 + 私たちの記述するプロンプトがGPT-4 Turboに最適化されているためにGPT-4 Turbo以外は、本来のポテンシャル以上に精度が低くなっている"
  • Scrapboxの文章はLLMにも読みやすいのでは - 井戸端

    箇条書きであれば、「長い文章のうちの3段目のインデントまでの内容を切り出す」みたいな感じで小さいチャンクを取り出すことが可能blu3mo.icon

    Scrapboxの文章はLLMにも読みやすいのでは - 井戸端
    sh19910711
    sh19910711 2024/06/06
    "箇条書きは文章の構造自体が意味を持っている / 大学生の頃にGoogle検索が現れて「公開の場に置いておくと『賢い検索』ができる」となった / 当時はまだ非公開のままでは賢い検索ができなかった" 2023
  • ChatGPTのTeamsプランに移行した話|MIERUNE Inc.

    はじめにMIERUNEでCTO(Chief Technology Ojisan)を務めている井口です。MIERUNEでは生産性向上の観点から、希望者はChatGPTの有料プランを会社負担で利用できることとしました。2023年5月に開始した制度ですが、希望者とはいえ現在はほぼ全員が利用している状況です。 この度、長期的に全社利用していくこととしTeamプランに移行しました。記事はそのレポートとなります。 導入にあたって生成AI活用は組織の生産性に大きな効果をもたらしますが、セキュリティリスクを考慮しなければなりません。入力データが学習に利用されてしまうと、予期せぬ情報漏洩に繋がります。そこで、導入にあたっては生成AI全般を利用する際の社内ルールを設定しました。 Notionの社内ルールページ・生成AIは生産性を飛躍的に高めるため、トレンドへのキャッチアップのためにも積極的に利用しましょう。

    ChatGPTのTeamsプランに移行した話|MIERUNE Inc.
    sh19910711
    sh19910711 2024/06/03
    "「購入したseatの数の2倍の人数までをTeamに追加出来る」「購入済みseatsの2倍に到達した場合はサブスクリプションが更新される」と記載 + 1日に一度だけ / 最初から想定利用人数の半分以上のseatsを購入することをお勧め"
  • ChunkLlamaによる追加学習なしのLLMコンテキスト拡張を試す - Qiita

    概要 LLMのコンテキスト長は、基的にモデル学習時の系列長の長さに制限されます。これに対し、モデルの元々のコンテキスト長よりも大きなコンテキスト長を実現する技術がいわゆるコンテキスト拡張です。 多くのコンテキスト拡張の手法では長い系列長のデータを使った追加の学習が必要となります。必要な学習量の大小には差がありますが、そもそも学習のための機器の準備や設定、データセットの用意など一般ユーザにとってはハードルが高いものになります。 これに対し、ChunkLlamaという手法では追加の学習を必要とせずコンテキスト拡張を実現します。この手法をMistral-7bベースのモデルに対して適用し、推論や様々なテストを試しました。 目次 ChunkLlamaについて Mistralベースのモデルで試す ChunkLlama(ChunkMistral)の適用方法 実際に推論してみる PPL(Perplexi

    ChunkLlamaによる追加学習なしのLLMコンテキスト拡張を試す - Qiita
    sh19910711
    sh19910711 2024/06/02
    "LLMのコンテキスト長: 学習時の系列長の長さに制限 / ChunkLlama: Dual Chunk Attention(DCA)という機構の導入 + 追加の学習を必要とせずコンテキスト拡張を実現 / 連続するチャンク間でのトークンの関係性を詳細にとらえる"