タグ

LLMに関するfm315のブックマーク (11)

  • トークナイザーの重要性と継続事前学習の可能性 3名の専門家が語る日本語LLM開発の最前線

    LLM開発の意義と課題 南野充則氏(以下、南野):では、パネルディスカッションを始めていきたいと思います。日1発目のパネルディスカッションなので、ちょっと盛り上げていきたいなと思っています。 私は、先ほど開会の挨拶もさせていただきましたが、南野と申します。モデレーターをさせていただきます。よろしくお願いします。 このセッションでは、ここでしか聞けない話をしっかり話していただこうということで、大規模言語モデルを作っている方々にいろんな質問を問い掛けていきたいと思っています。よろしくお願いします。 まず最初に登壇者のご紹介をさせていただきまして、その後、パネルに移っていきたいと思います。では、岡崎先生、よろしくお願いします。 岡崎直観氏(以下、岡崎):ご紹介ありがとうございます。東京工業大学の岡崎です。スライドをめくっていただいてよろしいでしょうか。 私は東工大という大学にいますので、研究と

    トークナイザーの重要性と継続事前学習の可能性 3名の専門家が語る日本語LLM開発の最前線
  • 【KARAKURI LM 10本ノック】番外編: Chrome内蔵のローカルLLMで「どこでもCopilot」を作ってみた

    記事中で紹介しているユーザスクリプト「どこでもCopilot」。ChromeビルトインのLLMで、任意のフォーム上で文章の続きをサジェスト。外部通信なし、無料で動作こんにちは、カラクリR&Dの吉田です。今回は、10ノック「番外編」ということで、Google Chrome の最新版に日(2024–08–22)組み込まれたローカルLLMの話をします。 記事の概要2024年8月22日に公開された Google Chrome の「バージョン128」にローカルLLM として Gemini Nano が組み込まれました。このLLMは、フロントエンド JavaScript から手軽に呼び出し可能で、ローカルLLMなので外部への通信は発生しません。しかも無料です。 記事では、このLLMを体験する方法を記します。また、このLLMを応用して、任意のフォーム上で入力した文章の続きをリアルタイムで補完し

    【KARAKURI LM 10本ノック】番外編: Chrome内蔵のローカルLLMで「どこでもCopilot」を作ってみた
  • OCRとLLMを活用した情報抽出業務の効率化|Algomatic

    はじめに企業の業務において、請求書や領収書、名刺などの紙媒体の情報を電子化し、管理・活用することは非常に重要です。しかし、これらの作業は手作業で行うと多大な時間と労力を要します。また、人的ミスも発生しやすく、業務効率化の大きな障壁となっています。そんな中、近年、OCRの性能向上やLLMの性能向上によって、あらゆる業務の効率化できる可能性が高まっています。この記事では、写真や書類から情報を抽出する取り込み業務について、OCRとLLMを利用したソリューションについて紹介します。 情報抽出などの取り込み業務の課題情報抽出などの取り込み業務では、以下のような課題が存在します。 手作業による時間と労力の浪費 大量の書類を処理する場合、作業コストが膨大に 単純作業の繰り返しによる従業員のモチベーション低下 他の付加価値の高い業務に注力できない 人的ミスの発生 量が多くなるほど、入力ミスや誤読などの人的

    OCRとLLMを活用した情報抽出業務の効率化|Algomatic
  • GPT-4を超える日本語精度の国産フルスクラッチLLM「PLaMo」無料トライアル開始、期間中は商用利用も可能/既存モデルをベースに用いず開発、商用版を今秋発売へ

    GPT-4を超える日本語精度の国産フルスクラッチLLM「PLaMo」無料トライアル開始、期間中は商用利用も可能/既存モデルをベースに用いず開発、商用版を今秋発売へ
  • 企業でLLMを活用する時にどのLLMを選択するべきか?|Data Science Career Note

    【自己紹介】 ぬるったん #Twitter:@Nurruttan / #YouTube:@Nurruttan 【転職支援サービス】 転職を検討しているデータサイエンティスト向けに【完全無料の】転職支援サービスを実施しています! 詳しくは下記をご覧ください! https://digital-transformation-blog.com/job-change-support-service/ 【キャリア相談サービス】 キャリアに悩むデータサイエンティスト向けにキャリア相談サービスをやっています! 詳しくは下記をご覧ください! https://digital-transformation-blog.com/career-support-service/ こんにちは、ぬるったんです。 今回は、企業でLLMを活用する時にどのLLMを選択するべきか?というテーマで解説していきます。 昨今、話題の生成

  • 最強ローカルLLM実行環境としてのEmacs

    みなさん、ローカルLLMで遊んでいますか? 昨年末に、Ollamaが登場してから誰でも簡単にローカルLLMで遊べる時代がやってきました。そこで、僕もローカルLLMでどんなことができるんだろうと思って触りはじめたのですが、ローカルLLMを最大限に活用するためには、まずはどうやったらEmacsからローカルLLMを使えるようになるのかと考えるのはあまりにも自然な流れでした。 この記事では、ローカルLLMに関する基的な知識から、EmacsからローカルLLMを扱う方法までを解説していきたいと思います。 ローカルLLMの基礎知識 # ローカルLLMとは、LLM(大規模言語モデル)をローカル環境、つまり自分のパソコンで扱えるようにしたモデルです。Facebookが開発しているLlamaが業界のトップランナーで、それをベースにしたモデルを色々な組織(中には個人もいるのかも)が開発しています。 そのLla

    最強ローカルLLM実行環境としてのEmacs
  • LLMをノートPCで動かしたら結構動く!とってもプライベートな相談をしまくってみた [Sponsored]

    LLMをノートPCで動かしたら結構動く!とってもプライベートな相談をしまくってみた [Sponsored]
  • 「よーしパパ、Ollama で Llama-3-ELYZA-JP-8B 動かしちゃうぞー」 - Qiita

    はじめに こんにちは、KDDIアジャイル開発センターのはしもと(仮名)です。 エンドレス水出しコーヒーの時期になりましたね。 今回は、Ollama を使って日語に特化した大規模言語モデル Llama-3-ELYZA-JP-8B を動かす方法をご紹介します。 このモデルは、日語の処理能力が高く、比較的軽量なので、ローカル環境での実行に適しています。さあその性能は如何ほどに!!!!????はやくAIは俺から仕事を奪え。 Llama-3-ELYZA-JP-8Bとは Llama-3-ELYZA-JP-8Bは、ELYZA社が開発した日語に特化した大規模言語モデルです。Meta社の「Llama 3」シリーズをベースに、日語での追加学習を行っています。80億パラメータという比較的小さなモデルサイズながら、「GPT-3.5 Turbo」や「Claude 3 Haiku」、「Gemini 1.0 P

    「よーしパパ、Ollama で Llama-3-ELYZA-JP-8B 動かしちゃうぞー」 - Qiita
  • ローカルLLMとRAGで自分の外部記憶を強化しよう - VA Linux エンジニアブログ

    はじめに 自宅PC編 会社サーバ編 感想等 執筆者:佐藤友昭 ※ 「ディスアグリゲーテッドコンピューティングとは何か?」連載記事一覧はこちら はじめに 作業ログや検討メモ、参照した定型論文や書籍、ネット上の記事、視聴した講演やウェビナーのメモ等、日常を記録する情報は日々増えていく。これらの情報はできれば後に役立てたいと思うが、筆者の場合、なかなか上手くいかない。自分の外部記憶を紐解いてみると、記録したことすら忘れてしまっている項目が大半である。稿では、ローカルLLMとRAGを用いて自分の外部記憶にいろいろと質問できるようにする方法を入門的に紹介する。決してベストプラクティス的な内容ではない。 自宅PC編 まずは、普段自宅で使用しているLinux PCを実験台として使えそうか試してみてから会社のサーバに適用してみることにする。 第一の要件は、ローカル環境で動作することである。情報の性質によ

    ローカルLLMとRAGで自分の外部記憶を強化しよう - VA Linux エンジニアブログ
  • Gemini は Business よりも Enterprise プランをオススメしたい理由

    私のビジネスにおけるワークスタイルはこの1年間で大きく変わりました。私が1年前に行っていた業務のほとんどが、現在は生成AIが生み出す価値に置き換わっています。資料やメール、記事コンテンツの作成、企画書やプログラミングコードの実装プロセス、あらゆる業務がAIによって、成り立っています。それだけでなく、プライベートにおける課題(への定期的な贈り物、旅行の計画)においても、生成AIが生み出すアイディアの恩恵を受けています。 私が所属する吉積情報株式会社のビジネス、私たちがお客様に提供する価値は、 Google Workspae によって成り立っていると言っても過言ではありません。私たち自身の業務は Google Workspace によって成り立っており、そこで受ける恩恵があるからこそ、私たち自身が自信を持ってお客様に対して Google Workspace の導入支援を行うことができます。

    Gemini は Business よりも Enterprise プランをオススメしたい理由
  • 準備0でローカルLLMを動かす(LM Studio)

    はじめに Metaが新しく公開したLLMの性能が他の最新モデルに匹敵する性能となっており、ベンダーから提供されるAPIを使わずに、自分のPC上でLLMを動かしたい欲求が高まりました。 ローカルでLLMを動かすメリットとして、以下が考えられます。 従量課金制のAPIの費用を気にしなくて良い (※PC電気代はかかるが) 個人情報を第三者に送信しないので、プライバシー面を考慮する必要がない LM Studio ローカルでLLMを動かす懸念として、環境構築など準備に時間がかかることが一つ挙げられます。 そこで、便利なツールを探していたところ、LM Studioを発見しました。 このツールは、GUI上でLLMの取得から起動までをボタンクリックで進めることができます。 さらに、チャットのUIやローカルサーバの起動・Pythonコード例の提示までしてくれる便利ツールとなっていました。 操作手順 使用し

    準備0でローカルLLMを動かす(LM Studio)
    fm315
    fm315 2024/04/29
  • 1