タグ

LLMに関するhatatyuのブックマーク (10)

  • 0から作るLLMーLlama

    記事の対象読者: LLM(大規模言語モデル)の複雑な構造や階層を理解しているが、それをどのように組み合わせるかが分からない人 LlaMaモデルに関するすべてのオペレータとアーキテクチャ(RMSNorm、ROPE、SwiGLUの実装を含む)を一行ずつ分解します。 記事ではhuggingfaceのライブラリを使用しておらず、すべてpytorchで実装しています。また、事前学習済みモデルも使用していません。 スタート地点は『源氏物語』の原文であり、ゴール地点はあなた自身がトレーニングした大規模モデルです。 pytorchを準備してください。GPUがなくても大丈夫です。重要なのはLLMの原理を学ぶことであり、この文章を読んだだけで新しい大規模モデルのアーキテクチャを作れるわけではありません。 記事では、できる限り平易な言葉を使って原理を解説していきます。 序文 記事のすべてのコードはGoo

    0から作るLLMーLlama
    hatatyu
    hatatyu 2024/10/28
  • PythonとLLMで作る!カレー好きのための知識グラフQAシステム - Qiita

    はじめに こんにちは、カレー愛好家の皆さん!今回は、Pythonと大規模言語モデル(LLM)を使って、カレーに関する知識を管理し、質問に答えるシステムを作ってみました。このシステムでは、カレー好きの人々のネットワークや、お気に入りのカレー店、新しいメニューなどの情報をグラフ構造で表現し、それをベースに質問応答を行います。 システムの概要 このシステムは以下の主要な機能を持っています: カレー関連の知識をグラフ構造で表現 ユーザーのコメントを分析し、新しい知識をグラフに追加 グラフの可視化(日語対応) グラフ情報を基にした質問応答 それでは、知識グラフの魅力について詳しく見ていきましょう! 知識グラフのメリットと有益性 皆さんは「知識グラフ」という言葉を聞いて、どんなイメージを持ちますか?難しそう?複雑そう?確かに最初はそう感じるかもしれません。でも、実はとてもパワフルで、私たちの日常生活

    PythonとLLMで作る!カレー好きのための知識グラフQAシステム - Qiita
  • ソースコードをリポジトリ丸ごとLLMに読んでもらう方法

    はじめに ソースコードをLLMに読んでもらうとき、単一ファイルだと楽なのですが、GitHubのリポジトリのように複数ファイルから構成されるプロジェクトだと困ってしまいますね。 リポジトリごとLLMに読んでもらえるようにいい感じにテキスト化できると良いですね。そんなソフトがありました。しかも2つ。 両方ともほとんどコンセプトは同じです。特に後者のgenerate-project-summaryは使い方も含めて、自分のやりたいことが、すでに開発者の清水れみおさんが以下の記事にまとめていました。 なので、あんまり書く必要ないのですが、せっかくなのでgpt-repository-loaderの使い方と、出力したファイルの別の活用方法について書いてみたいと思います。 gpt-repository-loaderでリポジトリをテキストに変換 使い方はREADMEに書いてあります。シンプルなソフトなので、

    ソースコードをリポジトリ丸ごとLLMに読んでもらう方法
  • 複数LLMの統合による会議動画要約の精度向上 - enechain Tech Blog

    はじめに 背景と課題 システム概要 ワークフローの詳細 動画文字起こし (Gemini, GPT-4o) 文字起こしの議題単位の分割 (Claude 3.5 Sonnet) 議題単位での要約作成 (Claude 3.5 Sonnet, GPT-4o) 出力 実装上の工夫と課題 結果と今後の展望 おわりに はじめに こんにちは。enechainで統計・機械学習モデルの構築やLLM(大規模言語モデル)の活用推進を担当している@udon_tempuraです。 近年、GoogleのGeminiなど生成AIの発展が目覚ましく、多くの企業がこれらの技術を業務に取り入れようとしています。 私たちenechainも例外ではなく、積極的にLLMの活用を進めています。 今回はその活用例の1つとして、複数のLLMを使い分けて構築した「会議動画の要約作成ワークフロー」についてご紹介します。 このワークフローでは会

    複数LLMの統合による会議動画要約の精度向上 - enechain Tech Blog
  • ゼロからRAGを作るならこんなふうに

    どんな人向けの記事? これからRAGを作ってみたい DifyやLangChainにこだわらず、自分で開発をハンドリングしたい ベクトルDBや埋め込みモデルの選定の勘所をサッと知りたい ここではRAGとは何かのような話題は扱いません。 RAGが、ほぼAI活用の現実的な最適解になりつつある LLMは高度な知的タスクを実行可能である。 そんな理解が世界に広まっていく中で、企業は自らが蓄えたデータをLLMに組み合わせてどう活用するか躍起になっています。これからはビッグデータだ!という時代を経ているため、情報インフラに投資した企業も多く、AIでデータを活用する流れはもはや確定路線と言えます。 この問題を解決する手法として一番最初に思いつくのは、モデル自体を改変するファインチューニングです。しかし、ファインチューニングにはいくつかの実用上の問題があります。ファインチューニング自体に専門知識が必要である

    ゼロからRAGを作るならこんなふうに
  • 「RAG」と「ロングコンテキストLLM」の徹底比較:LLMの長文理解における新たなハイブリッドアプローチ Google DeepMindとミシガン大学の研究 | Ledge.ai

    Top > 学術&研究 > 「RAG」と「ロングコンテキストLLM」の徹底比較:LLMの長文理解における新たなハイブリッドアプローチ Google DeepMindとミシガン大学の研究

    「RAG」と「ロングコンテキストLLM」の徹底比較:LLMの長文理解における新たなハイブリッドアプローチ Google DeepMindとミシガン大学の研究 | Ledge.ai
  • 「生成AI」と「LLM」を混同してはいけない“4つの理由”

    関連キーワード 人工知能 | 機械学習 テキストや画像を生成する人工知能AI技術である「生成AI」と聞いて、「GPT」をはじめとする「大規模言語モデル」(LLM)を思い浮かべる人がいる。それは間違った考え方ではないが、生成AIとLLMは同じではない。生成AIのベースとなる基盤モデルのさまざまな種類を踏まえて、生成AIとLLMを混同してはいけない理由を4つの視点で解説する。 「生成AI」と「LLM」を混同してはいけない4つの理由 併せて読みたいお薦め記事 連載:押さえておきたいLLMの基礎 前編:GAN、VAE、Transformerとは? 生成AIがよく分かる「深層学習モデル」5選 中編:「ELIZA」から「GPT-4」に至る、知られざる“LLM進化の歴史” LLMの関連記事 生成AIからデータが盗まれていることも……? LLMの10大脅威 「Gemini 1.5 Pro」の“マルチな

    「生成AI」と「LLM」を混同してはいけない“4つの理由”
  • 佐賀の織田病院がオンプレGPUサーバーでLLM稼働、電子カルテ情報を生成AIが要約

    地域の病院がオンプレミス環境で大規模言語モデル(LLM)を稼働させ、医療現場の業務で生成AI人工知能)を利用する――。佐賀県の祐愛会織田病院は2024年4月、これまで利用してきた電子カルテシステムにオプティムが提供する生成AI「OPTiM AI」を組み合わせ、看護師の業務効率を高める実証に乗り出した。織田病院は病床数111床、職員数305人(うち看護師118人)規模の総合病院だ。 織田病院は実証にあたり、米NVIDIAのRTX A2000を搭載したGPU(画像処理半導体)サーバー1台を新たに院内に用意した。LLMの学習や推論に用いるためだ。LLMの稼働状況によって、GPUサーバーの台数やスペックなどを変更する可能性があるという。 オンプレミスでLLMを利用するのはセキュリティーを担保するためだ。電子カルテに記載された個人情報などを病院外に出さないようにする。OPTiM AIのパラメーター

    佐賀の織田病院がオンプレGPUサーバーでLLM稼働、電子カルテ情報を生成AIが要約
  • 準備0でローカルLLMを動かす(LM Studio)

    はじめに Metaが新しく公開したLLMの性能が他の最新モデルに匹敵する性能となっており、ベンダーから提供されるAPIを使わずに、自分のPC上でLLMを動かしたい欲求が高まりました。 ローカルでLLMを動かすメリットとして、以下が考えられます。 従量課金制のAPIの費用を気にしなくて良い (※PC電気代はかかるが) 個人情報を第三者に送信しないので、プライバシー面を考慮する必要がない LM Studio ローカルでLLMを動かす懸念として、環境構築など準備に時間がかかることが一つ挙げられます。 そこで、便利なツールを探していたところ、LM Studioを発見しました。 このツールは、GUI上でLLMの取得から起動までをボタンクリックで進めることができます。 さらに、チャットのUIやローカルサーバの起動・Pythonコード例の提示までしてくれる便利ツールとなっていました。 操作手順 使用し

    準備0でローカルLLMを動かす(LM Studio)
    hatatyu
    hatatyu 2024/04/29
  • いちばんやさしいローカル LLM|ぬこぬこ

    概要ローカル LLM 初めましての方でも動かせるチュートリアル 最近の公開されている大規模言語モデルの性能向上がすごい Ollama を使えば簡単に LLM をローカル環境で動かせる Enchanted や Open WebUI を使えばローカル LLM を ChatGPT を使う感覚で使うことができる quantkit を使えば簡単に LLM を量子化でき、ローカルでも実行可能なサイズに小さくできる 1. はじめに大規模言語モデル(LLM)の数は数年前と比べてたくさん増えました。有名な LLM を使ったチャットサービスとして、OpenAIChatGPT や Anthropic の Claude、Google の Gemini などがありますが、これらのサービスの中で利用されている大規模言語モデルは公開されていません。 現状、様々な評価指標により LLM の性能が測定されていますが、

    いちばんやさしいローカル LLM|ぬこぬこ
  • 1