タグ

LLMに関するhatatyuのブックマーク (14)

  • 非エンジニア必見。─ Cursorがもたらす"不可逆な書く革命"|中村修三(ShuzoN)

    手で書く時代は終わったAIが文章作成のツールとして浸透しつつある今、あなたもChatGPTやClaudeといったLLM(大規模言語モデル)を活用しているかもしれません。しかし、こう感じたことはありませんか? 「意図した通りの文章にならない」 「リライトすると微妙にニュアンスがずれる」 「そもそも、プロンプトを工夫しないと望む質が得られない」 もし、あなたがこうした壁にぶつかっているなら、それは「次に進む」段階にいる証拠。Cursorはそんなあなたにとって「創造性を引き出すパートナー」として、より快適な執筆をサポートしてくれます。 これからは単なる"文章作成"から解放され、質的な"クオリティの追求"に専念できるようになります。では見ていきましょう。 Cursorとは?Cursorは、世界中で人気のエディタ Visual Studio Code(VSC)互換のエディタに、LLMを統合した次世

    非エンジニア必見。─ Cursorがもたらす"不可逆な書く革命"|中村修三(ShuzoN)
  • LLMを今すぐビジネスに活かすなら「エージェント」の前に「ワークフロー」〜MLラボのチャレンジから見えてきた知見〜 | 令和トラベル Engineering Blog

    この1年、社内外で「エージェントの時代が来る!」という声を耳にすることが増えました。実際、SNS技術コミュニティでもエージェントが注目されているのは事実です。ただ、あえてここは「今年はエージェントではなくワークフローの時代」といわせていただきます。 しかし私がいろいろ試行錯誤した結果、「お客様向けに完全自律のエージェントを提供」するのは現状まだ難度が高いと感じました。とくにハルシネーションリスクや誤った操作の暴走などが起きやすいからです。 一方、「確実にビジネス効果が出る」方法として、LLMを活用したワークフローを構築するほうが圧倒的に安定し、成果を出しやすい。たとえばコンテンツ生成工程や顧客対応の下準備工程にLLMを組み込み、最後は人間がチェックする形で運用することで、高速なアウトプットを手堅く実現できます。

    LLMを今すぐビジネスに活かすなら「エージェント」の前に「ワークフロー」〜MLラボのチャレンジから見えてきた知見〜 | 令和トラベル Engineering Blog
    hatatyu
    hatatyu 2025/01/31
  • 累計2500万着電を支える大規模 電話自動応答サービスのアーキテクチャ / Architecture of a Large-Scale Automated Phone Response Service Supporting 25 Million Cumulative Calls

    累計2500万着電を支える大規模 電話自動応答サービスのアーキテクチャ / Architecture of a Large-Scale Automated Phone Response Service Supporting 25 Million Cumulative Calls

    累計2500万着電を支える大規模 電話自動応答サービスのアーキテクチャ / Architecture of a Large-Scale Automated Phone Response Service Supporting 25 Million Cumulative Calls
  • 日本語に特化したOCR、文書画像解析Pythonパッケージ「YomiToku」を公開しました|Kotaro.Kinoshita

    はじめに最近、LLMへのRAGを用いた文書データの連携等を目的に海外を中心にOCRや文書画像解析技術に関連する新しいサービスが活発にリリースされています。 しかし、その多くは日語をメインターゲットに開発されているわけではありません。日語文書は、英数字に加えて、ひらがな、漢字、記号など数千種類の文字を識別する必要があったり、縦書きなど日語ドキュメント特有のレイアウトに対処する必要があったりと日語特有の難しさがあります。 ですが、今後、海外の開発者がこれらの課題に対処するため、日のドキュメント画像解析に特化したものをリリースする可能性は低く、やはり自国の言語向けのサービスは自国のエンジニアが開発すべきだと筆者は考えています。 もちろん、Azure Document Intelligenceをはじめとした、クラウドサービスのドキュメント解析サービスはありますが、クラウドを利用できないユ

    日本語に特化したOCR、文書画像解析Pythonパッケージ「YomiToku」を公開しました|Kotaro.Kinoshita
  • 0から作るLLMーLlama

    記事の対象読者: LLM(大規模言語モデル)の複雑な構造や階層を理解しているが、それをどのように組み合わせるかが分からない人 LlaMaモデルに関するすべてのオペレータとアーキテクチャ(RMSNorm、ROPE、SwiGLUの実装を含む)を一行ずつ分解します。 記事ではhuggingfaceのライブラリを使用しておらず、すべてpytorchで実装しています。また、事前学習済みモデルも使用していません。 スタート地点は『源氏物語』の原文であり、ゴール地点はあなた自身がトレーニングした大規模モデルです。 pytorchを準備してください。GPUがなくても大丈夫です。重要なのはLLMの原理を学ぶことであり、この文章を読んだだけで新しい大規模モデルのアーキテクチャを作れるわけではありません。 記事では、できる限り平易な言葉を使って原理を解説していきます。 序文 記事のすべてのコードはGoo

    0から作るLLMーLlama
    hatatyu
    hatatyu 2024/10/28
  • PythonとLLMで作る!カレー好きのための知識グラフQAシステム - Qiita

    はじめに こんにちは、カレー愛好家の皆さん!今回は、Pythonと大規模言語モデル(LLM)を使って、カレーに関する知識を管理し、質問に答えるシステムを作ってみました。このシステムでは、カレー好きの人々のネットワークや、お気に入りのカレー店、新しいメニューなどの情報をグラフ構造で表現し、それをベースに質問応答を行います。 システムの概要 このシステムは以下の主要な機能を持っています: カレー関連の知識をグラフ構造で表現 ユーザーのコメントを分析し、新しい知識をグラフに追加 グラフの可視化(日語対応) グラフ情報を基にした質問応答 それでは、知識グラフの魅力について詳しく見ていきましょう! 知識グラフのメリットと有益性 皆さんは「知識グラフ」という言葉を聞いて、どんなイメージを持ちますか?難しそう?複雑そう?確かに最初はそう感じるかもしれません。でも、実はとてもパワフルで、私たちの日常生活

    PythonとLLMで作る!カレー好きのための知識グラフQAシステム - Qiita
  • ソースコードをリポジトリ丸ごとLLMに読んでもらう方法

    はじめに ソースコードをLLMに読んでもらうとき、単一ファイルだと楽なのですが、GitHubのリポジトリのように複数ファイルから構成されるプロジェクトだと困ってしまいますね。 リポジトリごとLLMに読んでもらえるようにいい感じにテキスト化できると良いですね。そんなソフトがありました。しかも2つ。 両方ともほとんどコンセプトは同じです。特に後者のgenerate-project-summaryは使い方も含めて、自分のやりたいことが、すでに開発者の清水れみおさんが以下の記事にまとめていました。 なので、あんまり書く必要ないのですが、せっかくなのでgpt-repository-loaderの使い方と、出力したファイルの別の活用方法について書いてみたいと思います。 gpt-repository-loaderでリポジトリをテキストに変換 使い方はREADMEに書いてあります。シンプルなソフトなので、

    ソースコードをリポジトリ丸ごとLLMに読んでもらう方法
  • 複数LLMの統合による会議動画要約の精度向上 - enechain Tech Blog

    はじめに 背景と課題 システム概要 ワークフローの詳細 動画文字起こし (Gemini, GPT-4o) 文字起こしの議題単位の分割 (Claude 3.5 Sonnet) 議題単位での要約作成 (Claude 3.5 Sonnet, GPT-4o) 出力 実装上の工夫と課題 結果と今後の展望 おわりに はじめに こんにちは。enechainで統計・機械学習モデルの構築やLLM(大規模言語モデル)の活用推進を担当している@udon_tempuraです。 近年、GoogleのGeminiなど生成AIの発展が目覚ましく、多くの企業がこれらの技術を業務に取り入れようとしています。 私たちenechainも例外ではなく、積極的にLLMの活用を進めています。 今回はその活用例の1つとして、複数のLLMを使い分けて構築した「会議動画の要約作成ワークフロー」についてご紹介します。 このワークフローでは会

    複数LLMの統合による会議動画要約の精度向上 - enechain Tech Blog
  • ゼロからRAGを作るならこんなふうに

    どんな人向けの記事? これからRAGを作ってみたい DifyやLangChainにこだわらず、自分で開発をハンドリングしたい ベクトルDBや埋め込みモデルの選定の勘所をサッと知りたい ここではRAGとは何かのような話題は扱いません。 RAGが、ほぼAI活用の現実的な最適解になりつつある LLMは高度な知的タスクを実行可能である。 そんな理解が世界に広まっていく中で、企業は自らが蓄えたデータをLLMに組み合わせてどう活用するか躍起になっています。これからはビッグデータだ!という時代を経ているため、情報インフラに投資した企業も多く、AIでデータを活用する流れはもはや確定路線と言えます。 この問題を解決する手法として一番最初に思いつくのは、モデル自体を改変するファインチューニングです。しかし、ファインチューニングにはいくつかの実用上の問題があります。ファインチューニング自体に専門知識が必要である

    ゼロからRAGを作るならこんなふうに
  • 「RAG」と「ロングコンテキストLLM」の徹底比較:LLMの長文理解における新たなハイブリッドアプローチ Google DeepMindとミシガン大学の研究 | Ledge.ai

    Top > 学術&研究 > 「RAG」と「ロングコンテキストLLM」の徹底比較:LLMの長文理解における新たなハイブリッドアプローチ Google DeepMindとミシガン大学の研究

    「RAG」と「ロングコンテキストLLM」の徹底比較:LLMの長文理解における新たなハイブリッドアプローチ Google DeepMindとミシガン大学の研究 | Ledge.ai
  • 「生成AI」と「LLM」を混同してはいけない“4つの理由”

    関連キーワード 人工知能 | 機械学習 テキストや画像を生成する人工知能AI技術である「生成AI」と聞いて、「GPT」をはじめとする「大規模言語モデル」(LLM)を思い浮かべる人がいる。それは間違った考え方ではないが、生成AIとLLMは同じではない。生成AIのベースとなる基盤モデルのさまざまな種類を踏まえて、生成AIとLLMを混同してはいけない理由を4つの視点で解説する。 「生成AI」と「LLM」を混同してはいけない4つの理由 併せて読みたいお薦め記事 連載:押さえておきたいLLMの基礎 前編:GAN、VAE、Transformerとは? 生成AIがよく分かる「深層学習モデル」5選 中編:「ELIZA」から「GPT-4」に至る、知られざる“LLM進化の歴史” LLMの関連記事 生成AIからデータが盗まれていることも……? LLMの10大脅威 「Gemini 1.5 Pro」の“マルチな

    「生成AI」と「LLM」を混同してはいけない“4つの理由”
  • 佐賀の織田病院がオンプレGPUサーバーでLLM稼働、電子カルテ情報を生成AIが要約

    地域の病院がオンプレミス環境で大規模言語モデル(LLM)を稼働させ、医療現場の業務で生成AI人工知能)を利用する――。佐賀県の祐愛会織田病院は2024年4月、これまで利用してきた電子カルテシステムにオプティムが提供する生成AI「OPTiM AI」を組み合わせ、看護師の業務効率を高める実証に乗り出した。織田病院は病床数111床、職員数305人(うち看護師118人)規模の総合病院だ。 織田病院は実証にあたり、米NVIDIAのRTX A2000を搭載したGPU(画像処理半導体)サーバー1台を新たに院内に用意した。LLMの学習や推論に用いるためだ。LLMの稼働状況によって、GPUサーバーの台数やスペックなどを変更する可能性があるという。 オンプレミスでLLMを利用するのはセキュリティーを担保するためだ。電子カルテに記載された個人情報などを病院外に出さないようにする。OPTiM AIのパラメーター

    佐賀の織田病院がオンプレGPUサーバーでLLM稼働、電子カルテ情報を生成AIが要約
  • 準備0でローカルLLMを動かす(LM Studio)

    はじめに Metaが新しく公開したLLMの性能が他の最新モデルに匹敵する性能となっており、ベンダーから提供されるAPIを使わずに、自分のPC上でLLMを動かしたい欲求が高まりました。 ローカルでLLMを動かすメリットとして、以下が考えられます。 従量課金制のAPIの費用を気にしなくて良い (※PC電気代はかかるが) 個人情報を第三者に送信しないので、プライバシー面を考慮する必要がない LM Studio ローカルでLLMを動かす懸念として、環境構築など準備に時間がかかることが一つ挙げられます。 そこで、便利なツールを探していたところ、LM Studioを発見しました。 このツールは、GUI上でLLMの取得から起動までをボタンクリックで進めることができます。 さらに、チャットのUIやローカルサーバの起動・Pythonコード例の提示までしてくれる便利ツールとなっていました。 操作手順 使用し

    準備0でローカルLLMを動かす(LM Studio)
    hatatyu
    hatatyu 2024/04/29
  • いちばんやさしいローカル LLM|ぬこぬこ

    https://t.co/q01cRabCyw な、なんだこのは...! というのはさておき、初の商業出版で三章を書かせていただきました!日経 BP さんとの共著です! もしよろしければお手に取っていただけるとうれしいです。年末年始、もしお時間がありましたら是非!#localllmbook — ぬこぬこ (@schroneko) December 14, 2024 2024 年 10 月追記 記事執筆から半年経ちまして、ライブラリやアプリのデファクトスタンダードが定まってきました。扱っているモデルも古くなっています。当に流れがはやいですね。記事も逐次更新していきますので、引き続きご覧いただければ幸いです。 アップデート Ollama→かなり使われるようになり、ローカル LLM を始めたい方にはうってつけです。 Open WebUI→Ollama が利用されることが多くなり、UI とし

    いちばんやさしいローカル LLM|ぬこぬこ
  • 1