並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 69件

新着順 人気順

LLMの検索結果1 - 40 件 / 69件

  • 「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表

    米AppleのAI研究者らは10月7日(現地時間)、「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」(LLMにおける数学的推論の限界を理解する)という論文を発表した。 この論文は、LLM(大規模言語モデル)が、本当に人間のように論理的に考えて問題を解けるのか、という疑問を検証している。結論としては、LLMは今のところ、表面的なパターンを真似て答えを出しているだけで、真の推論能力は持っていないと主張している。 研究者らは、これらの問題点を検証するために、「GSM-Symbolic」という新しいテスト方法を開発した。これは、LLMの数学的推論能力を評価するためのベンチマークデータセット「GSM8K」を改良し、問題の表現や数字を柔軟に変えられるようにした

      「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表
    • 可愛すぎかよ! ハッカーの新しい相棒 コマンドラインからLLMを使えるgptme|shi3z

      こういうのが欲しかったんだよ。マジで。 コマンドラインからLLMを呼び出せるgptmeというツールがアツい これは、gptmeコマンドを追加するというもの。 環境変数としてOPENAI_API_KEYとかAnthropicのキーとかを設定しておくと勝手にAPIを呼び出してくれる。もちろん、クラウドに送信するとかけしからんという勢にはローカルLLMでも対応できる。 こいつはコマンドライン版ChatGPTのようなものなので、コマンドラインで動くのだが、その真価は例えばパイプで繋いだ時とかに発揮される。 $ du -d 1|gptme "一番容量を食ってるフォル ダは何Gバイト使ってんの?" Found OpenAI API key, using OpenAI provider [10:13:32] No model specified, using recommended model for

        可愛すぎかよ! ハッカーの新しい相棒 コマンドラインからLLMを使えるgptme|shi3z
      • もうでかいVRAMに高い金を払う必要は無くなるかもしれないのか?超分散LLM推論環境が爆誕 |shi3z

        世は大容量GPU時代。 吾輩も、秋葉原で大容量VRAM搭載GPUの中古が出たときけばすぐに飛んでいき買ってくるということを繰り返している。ちなみに最近、秋葉原の大容量中古GPUは飛ぶように売れているので、見つけたら即買いしないとすぐに無くなる。 なぜ大容量GPUが欲しいかと言えば、それがAIの全ての力の源だからである。 しかし、これは我々のようなガチ研究勢の話であって、ビジネスパースン的には「いやあこれからはローカルLLMでセキュリティバッチリでしょう」みたいな話をしても、「んで、おいくら万円ですか?」と聞かれて、「えーと、GPU単体で500万円くらいでやす」とか言うと客も裸足で逃げていく。そもそもそれだけの価格を払っても、買えるかどうかわからない。 こないだデンバーの学会で、NVIDIAのジェンスン・ファンとMetaのマーク・ザッカーバーグが対談した時に、マークはずっと「とにかくGPUを

          もうでかいVRAMに高い金を払う必要は無くなるかもしれないのか?超分散LLM推論環境が爆誕 |shi3z
        • 会議の文字起こしから議事録をまとめるLLMツールを作った

          Leaner 開発チームの黒曜(@kokuyouwind)です。 Leaner では先月(2024 年 9 月)に葉山で開発合宿を行いました。合宿全体については既に開発者ブログの記事が上がっています。 今回、自分は議事録の自動まとめツールを作るチームでプロンプトを調整し、結構いい感じに動いたため記事を書くことにしました。 やりたかったこと 商談や社内のミーティングなどの実施後に議事録を作ることがあるのですが、結構時間がかかるため ChatGPT などの LLM を使って自動化できないか、というのを試しました。 やりたいこととしては LabBase さんの以下の記事が近いです。 ただし前提が異なる部分もあったため、諸々検証したうえで最終的には異なる構成になりました。 Amptalk を利用しており文字起こしが取得できているため、文字起こし部分はこれより精度が良いかが基準になる tl;dv や

            会議の文字起こしから議事録をまとめるLLMツールを作った
          • LLMの効率化を支えるアルゴリズム

            2024.09.04

              LLMの効率化を支えるアルゴリズム
            • 【西川和久の不定期コラム】 スマホでもローカルでLLMが動く時代!iPhone 16 Proで試してみた

                【西川和久の不定期コラム】 スマホでもローカルでLLMが動く時代!iPhone 16 Proで試してみた
              • LLMの論理的推論を強化する新技術「Logic-of-Thought(LoT)」 従来のChain-of-Thought(思考の連鎖)の「不忠実な推論」問題解決を目指す | Ledge.ai

                Top > 学術&研究 > LLMの論理的推論を強化する新技術「Logic-of-Thought(LoT)」 従来のChain-of-Thought(思考の連鎖)の「不忠実な推論」問題解決を目指す

                  LLMの論理的推論を強化する新技術「Logic-of-Thought(LoT)」 従来のChain-of-Thought(思考の連鎖)の「不忠実な推論」問題解決を目指す | Ledge.ai
                • GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT Communications Engineers' Blog

                  本記事では、今年8月にパブリックベータ版として GitHub に搭載された新機能 GitHub Models について、概要や利用法を簡単にご説明します。さらに、実際に GitHub Models を活用して、多数の LLM の日本語性能を横断的に測定していく例を紹介していきます。 目次 目次 はじめに 三行で GitHub Models を説明すると... GitHub Models の使い方 Waitlist への登録 モデル一覧 ブラウザ上で試す API経由で試す GitHub Models を利用する上での注意点 API レート制限の制約が強い Azure AI Content Safety が全ての LLM に適用されている GitHub Models を使って LLM の日本語性能を横断的に測定する 実験 1. GPT-4o による自動評価 2. 出力が日本語になっているかどう

                    GitHub Models を使って 20 種類以上の LLM の日本語性能を測定してみた - NTT Communications Engineers' Blog
                  • ナレッジグラフとLLMを活用したレコメンドシステム - Insight Edge Tech Blog

                    イントロダクション:スーパーマーケットの3つの課題 ナレッジグラフとは ナレッジグラフの活用事例 Google検索 Amazon ECサイトのレコメンドシステムCOSMO ナレッジグラフに関連した論文 Yu et al., COSMO: A large-scale e-commerce common sense knowledge generation and serving system at Amazon[4] Shi et al., LLM-Powered Explanations: Unraveling Recommendations Through Subgraph Reasoning[1] Wang et al., Multi-level recommendation reasoning over knowledge graphs with reinforcement lear

                      ナレッジグラフとLLMを活用したレコメンドシステム - Insight Edge Tech Blog
                    • RAG-LLMシステムへのユーザークエリは4つのレベルに分類できる 最も複雑なのは「隠れた根拠からの推論が必要なクエリ」Microsoftによる研究 | AIDB

                      本記事では、Microsoftの研究者たちが行った、LLMを外部情報で強化する必要がある質問に関する調査結果を紹介します。研究者たちは、ユーザーからの質問を4つの難易度に分け、それぞれの難易度に合った解決方法を提案してい […] The post RAG-LLMシステムへのユーザークエリは4つのレベルに分類できる 最も複雑なのは「隠れた根拠からの推論が必要なクエリ」Microsoftによる研究 first appeared on AIDB.

                        RAG-LLMシステムへのユーザークエリは4つのレベルに分類できる 最も複雑なのは「隠れた根拠からの推論が必要なクエリ」Microsoftによる研究 | AIDB
                      • PythonとLLMで作る!カレー好きのための知識グラフQAシステム - Qiita

                        はじめに こんにちは、カレー愛好家の皆さん!今回は、Pythonと大規模言語モデル(LLM)を使って、カレーに関する知識を管理し、質問に答えるシステムを作ってみました。このシステムでは、カレー好きの人々のネットワークや、お気に入りのカレー店、新しいメニューなどの情報をグラフ構造で表現し、それをベースに質問応答を行います。 システムの概要 このシステムは以下の主要な機能を持っています: カレー関連の知識をグラフ構造で表現 ユーザーのコメントを分析し、新しい知識をグラフに追加 グラフの可視化(日本語対応) グラフ情報を基にした質問応答 それでは、知識グラフの魅力について詳しく見ていきましょう! 知識グラフのメリットと有益性 皆さんは「知識グラフ」という言葉を聞いて、どんなイメージを持ちますか?難しそう?複雑そう?確かに最初はそう感じるかもしれません。でも、実はとてもパワフルで、私たちの日常生活

                          PythonとLLMで作る!カレー好きのための知識グラフQAシステム - Qiita
                        • 【GraphRAG プロジェクトを立ち上げます】ナレッジグラフとLLMで「発想力を持つAI」の実現へ|Stockmark

                          こんにちは。ストックマークのリサーチャーの広田です。今日は私が新しく立ち上げた GraphRAG プロジェクトの仲間を募集するために、GraphRAG プロジェクトについて紹介したいと思います。 広田航 Researcher 大阪大学大学院情報科学研究科を卒業後、米国に渡り Megagon Labs で Conversational AI や entity matching の研究を行う。その後帰国しストックマークに参画。現在はナレッジグラフ構築や LLM を活用した情報抽出の研究を行う。 まず GraphRAG プロジェクトの背景を紹介したいと思います。 ストックマークは「価値創造の仕組みを再発明し人類を前進させる」というミッションを掲げ、「AIと人による新しい価値創造プロセスを発明する」を目指して Research Unit を組成しています。情報の量が急激に増えている現代において、情

                            【GraphRAG プロジェクトを立ち上げます】ナレッジグラフとLLMで「発想力を持つAI」の実現へ|Stockmark
                          • Meta、無料で商用可のLLM「Llama 3.2」リリース マルチモーダルモデルも

                            米Metaは9月25日(現地時間)、年次開発者会議「Meta Connect 2024」で、同社のLLM「Llama」の最新版「Llama 3.2」のリリースを発表した。7月に「Llama 3.1」をリリースしたばかりだが、初のマルチモーダルモデルの追加など、大きな更新になった。 画像認識機能の追加 Llama 3.2では、11B(110億)と90B(900億)の2つのモデルで画像認識機能をサポートする。 これにより、表やグラフなどの理解、画像キャプションの生成、画像内のオブジェクトに自然言語で指示する視覚的なグラウンディングなどの画像推論ユースケースが可能になる。 例えば、ユーザーが前年のどの月に売り上げが最も多かったのかをグラフに基づいて質問すると、Llama 3.2は迅速に回答を提供するという。 エッジデバイスに対応した軽量モデル 1Bと3Bの軽量モデルは、要約、指示の追従、書き換え

                              Meta、無料で商用可のLLM「Llama 3.2」リリース マルチモーダルモデルも
                            • ローカルLLMでbolt.newを動かしてみた

                              1. Mac Studio(M2 Ultra 128GB) # ollamaサーバ 2. Ubuntu 24.04.1 LTS (Core i5-8400 + メインメモリ 16GB) # bolt.new実行サーバ 概要 今回の記事では、ローカルLLMを用いてOSS版のbolt.newを動かしてみようと思います。目的としては、下記のとおりです。 何がすごいのかまったく理解できなかったbolt.newについて少しでも理解する bolt.newの実行結果を通じてローカルLLMの現在地を知る そもそもbolt.newとは何なのかが気になる方は、例えば下記の記事などを参考にしてください。 背景 私はtypescriptのコーディングやweb開発などの経験がなく、正直v0や今回のbolt.newなどが何の役に立つかすらよくわかっていませんでした。この記事を書いている今でさえ、5%も理解できていない

                                ローカルLLMでbolt.newを動かしてみた
                              • 自宅のPCでLLMが動く! オープンソースの視点からひも解く生成AIの現在と未来

                                プライベート・ビジネスを問わず活用が進む生成AI。そんな生成AIの進化を支えるのが、OSSだ。AIシステムを支えるコアソフトウェアのLangChainやvLLMは、代表例の1つ。しかも最近は生成AI自体がOSSとして提供されており、ローカルでLLMを実行できるところまできている。本セッションでは、レッドハットでスペシャリストソリューションアーキテクトを務める石川純平氏がOSS視点で生成AIの今とこれからを語った。 オープン/クローズドで読み解くLLMの現在 生成AI活用が広がる中で、LLM(大規模言語モデル)事情も変化していると語るのは、レッドハットのスペシャリストソリューションアーキテクト、石川純平氏だ。 レッドハット株式会社 テクニカルセールス本部 スペシャリストソリューションアーキテクト 石川 純平氏 LLMは大きく、クローズドLLMとオープンLLMに分けることができる。クローズドL

                                  自宅のPCでLLMが動く! オープンソースの視点からひも解く生成AIの現在と未来
                                • 「時間の矢」が生成AIにも含まれていた? “未来から過去を予測”する逆の訓練をLLMで実施 海外チームが検証

                                  このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。 X: @shiropen2 スイスのEPFLや英ロンドン大学に所属する研究者らが発表した論文「Arrows of Time for Large Language Models」は、大規模言語モデル(LLM)が、次のトークンを予測する能力に比べて、前のトークンを予測する能力が劣ることを明らかにした研究報告である。研究チームは、この現象が自然言語を学習する際に、時間が過去から未来へと一方向にしか流れない「時間の矢」が影響していると指摘している。 (関連記事:「なぜ時間は過去→未来にしか進まない?」を“量子もつれ”で説明か 未解決問題「時間の矢」に切り込む) LLMは、テキス

                                    「時間の矢」が生成AIにも含まれていた? “未来から過去を予測”する逆の訓練をLLMで実施 海外チームが検証
                                  • データマイニングの国際学会KDD2024@スペインでは、やはりLLM関連の話題が豊富 - Taste of Tech Topics

                                    皆さんこんにちは 機械学習チームYAMALEXの@tereka114です。 YAMALEXは Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) KDD主催のコンペティションKDDCupで入賞したことより、昨年に引き続き、KDDに参加しましたのでそのレポートを記載させていただきます。 今年はスペイン・バルセロナでの開催だったため、ヨーロッパへ初渡航でした。楽しかったです! 会場写真※昨年のレポートはこちら acro-engineer.hatenablog.com KDD2024 KDDは正式名称、30th ACM SIGKDD CONFERENCE ON KNOWLEDGE DISCOVERY AND DATA MININGです。 8月25日(日)〜29日(木)主なテーマとしてデータマイニング

                                      データマイニングの国際学会KDD2024@スペインでは、やはりLLM関連の話題が豊富 - Taste of Tech Topics
                                    • 0.5BパラメータのLLMを一から作ろうとして心が折れかけた話

                                      この記事について 今回Transformerを理解したいという目的でDecoder-OnlyのLLMをスクラッチで作ることにしました。 というのも、この約2年、新しいモデルが発表されなかった月はないほど目まぐるしく変化していくローカルLLMを追っていく中で、楽しさもある反面、よく分からないブラックボックスとして扱い続けるということにもやもやした気持ちを感じていました。 そこで自分もモデルを一から作ってみたらよくわかるんじゃないかな?という気持ちでこのプロジェクトをスタートしました。 既にローカルLLMのコミュニティでは一からモデルを作っている方は複数いるものの、今回は自身のTransformerに対する理解を深めることが目的ですから、なるべく頼らずにいこうと決めました。 (これが一番の過ちだったかもしれません...。) かなり長くなってしまったので「まとめ」へのリンクを貼っておきます。 ま

                                        0.5BパラメータのLLMを一から作ろうとして心が折れかけた話
                                      • なぜAIに“日本語”を学習させるのか? 35種類のLLMで実験し分析 東工大などが研究報告

                                        このコーナーでは、2014年から先端テクノロジーの研究を論文単位で記事にしているWebメディア「Seamless」(シームレス)を主宰する山下裕毅氏が執筆。新規性の高いAI分野の科学論文を山下氏がピックアップし、解説する。 X: @shiropen2 9月3日に開催の第261回自然言語処理研究発表会において、東京工業大学と産業技術総合研究所に所属する研究者らが発表した「LLMに日本語テキストを学習させる意義」は、大規模言語モデル(LLM)に日本語を学習する効果について実験結果を基に評価した研究報告である。 この研究では、35種類のLLMに対して日本語と英語の19種類のタスクを用いて評価を実施し、その結果を詳細に分析。評価に用いたLLMは、学習データや構築手法によって大きく4つのカテゴリーに分類される。 「英語フルスクラッチ」は英語中心のデータで学習されたモデル(Llama 3など) 「日本

                                          なぜAIに“日本語”を学習させるのか? 35種類のLLMで実験し分析 東工大などが研究報告
                                        • 経産省、国内の生成AI各社に支援 「アニメ特化型基盤モデル」「薬学特化LLM」など、計算資源を助成

                                          経産省、国内の生成AI各社に支援 「アニメ特化型基盤モデル」「薬学特化LLM」など、計算資源を助成(1/2 ページ) 経済産業省と新エネルギー・産業技術総合開発機構(NEDO)は10月10日、生成AIスタートアップや研究機関など20組織への助成を発表した。国内の生成AI開発を推進する「GENIAC」プロジェクトの第2期として、7月から8月にかけて助成先を公募していたもの。各社には計算資源を支援する。 採択先と、各組織の研究テーマは以下の通り。応募は全部で35件あり、うち20件を採択したという。 社名 研究テーマ 共同研究先・共同提案者 ABEJA

                                            経産省、国内の生成AI各社に支援 「アニメ特化型基盤モデル」「薬学特化LLM」など、計算資源を助成
                                          • リコー、モデルマージで“GPT-4レベル”の大規模言語モデル開発 プライベートLLMの開発効率化に貢献

                                            リコーは9月30日、モデルマージ技術によって高性能な日本語大規模言語モデル(LLM)を開発したと発表した。東京工業大学などが開発したLLM「Llama-3-Swallow-70B」をベースにしたAIモデルで、米OpenAIのLLM「GPT-4」と同等の性能を持つとしている。 モデルマージとは、複数の学習済みのLLMモデルを組み合わせて、より性能の高いモデルを作る方法のこと。 リコーは今回、Llama-3-Swallow-70Bをベースにしてモデルマージを実行。Metaの指示学習済みモデルから抽出した「Chat Vector」(AIモデルから抽出した指示追従能力のベクトルのこと)と、リコーが作成したChat Vectorを独自のノウハウでマージさせて、新たなLLMを開発した。 開発したLLMは、日本語性能の評価指標「ELYZA-tasks-100」でGPT-4と同等のスコアを記録。また、比較

                                              リコー、モデルマージで“GPT-4レベル”の大規模言語モデル開発 プライベートLLMの開発効率化に貢献
                                            • LLMの日本語化はベクトル表現にも有効か?LLM2Vecにおける日本語ドメイン適応の効果 - Uzabase for Engineers

                                              はじめに こんにちは! 株式会社ユーザベース スピーダ事業部の飯田です。 この記事では、テキストをベクトルに変換(エンコード)にLLMを用いる際に有効なLLM2Vecという手法を紹介します。 合わせて、LLM2Vecにおける日本語ドメイン適応として、LLM2Vecの処理を日本語で行った場合とLLMの継続事前学習を日本語で行った場合について実験を行ったため、これを紹介します。 LLM2Vecとは LLM2Vecは、"LLM2Vec: Large Language Models Are Secretly Powerful Text Encoders"で提案された手法です。 Llamaなどで有名なLLMでは、テキストをベクトルにエンコードする際は、入力したテキストの末尾のベクトルを用いることが多いです。 これは、LLMがテキストの次の単語を予測することで事前学習を行っていることに関連があります。

                                                LLMの日本語化はベクトル表現にも有効か?LLM2Vecにおける日本語ドメイン適応の効果 - Uzabase for Engineers
                                              • “学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版

                                                国立情報学研究所(NII)は9月17日、パラメータ数約1720億の大規模言語モデル(LLM)のプレビュー版「LLM-jp-3 172B beta1」を公開した。NIIが開発するLLMは、データをフルスクラッチで学習しており、AIモデルの他に学習データもオープンになっているのが特徴。プレビュー版モデルは、学習データの約3分の1までを学習した段階のものになる。 今回公開したLLMのパラメータ数は約1720億で、米OpenAIのLLM「GPT-3」と同程度の規模。ベースモデルは米MetaのLLM「LlaMA-2」を使った。 学習用データには、約2.1兆トークン(おおよそ単語数の意)のデータを用意。そのうち日本語は約5920億トークンで「WebアーカイブCommon Crawl(CC)全量から抽出・フィルタリングした日本語テキスト」「国立国会図書館インターネット資料収集保存事業(WARP)で収集さ

                                                  “学習データも全てオープン”なLLM、NIIが公開 GPT-3級モデルのプレビュー版
                                                • LLMの“あるべき姿”とは──NIIがシンポジウムの資料を無料公開 動画も順次

                                                  国立情報学研究所(NII)は10月4日、大規模言語モデルの研究動向について紹介する資料を無料公開した。資料は9月25日に一橋大学で開催したシンポジウム「大規模言語モデルのあるべき姿とは?」で利用したもので、NIIや情報通信研究機構(NICT)などによる研究動向や研究開発の指針などをまとめている。 10月7日時点では、NIIの教授陣がまとめた「大規模言語モデルにおける安全性の実現と方向性」「日本語に強い大規模言語モデルの開発のためのコーパス構築」など8本の資料を公開している。今後は追加の資料に加え、所長の黒橋禎夫さんやAIスタートアップ・Preferred Networksの岡野原大輔代表取締役などが登壇したパネルディスカッションの動画なども順次公開するという。

                                                    LLMの“あるべき姿”とは──NIIがシンポジウムの資料を無料公開 動画も順次
                                                  • 「RAG」とは何か? なぜ“LLMの限界”を突破できるのか

                                                    関連キーワード 人工知能 大規模言語モデル(LLM)を活用する上で大きな課題となるのが、ハルシネーション(事実に基づかない回答を出力すること)のリスクだ。こうしたLLMの課題克服に役立つ技術として「RAG」(検索拡張生成)が注目されている。RAGはLLMの回答精度向上にどう役立つのか。その仕組みを解説する。 なぜ「RAG」で“LLMの限界”を突破できる? 併せて読みたいお薦め記事 連載:「LLM」×「RAG」を徹底解説 前編:「LLM」よりむしろ「RAG」が“注目株”になる理由 「RAG」に関する話題 三菱電機が開発に「RAG」を使う理由とは? 生成AIプロジェクトの舞台裏 Copilotの「RAG」とは? Microsoft 365で使える“優秀な頭脳” RAGは、学習データ以外に外部のデータベースから情報を検索、取得し、LLMが事前学習していない情報も回答できるように補う手法を指す。R

                                                      「RAG」とは何か? なぜ“LLMの限界”を突破できるのか
                                                    • NIIが約1720億パラメーターのオープンLLMを開発、学習データ公開で透明性を確保

                                                      国立情報学研究所(NII)が、独自のフルスクラッチ学習を実施した大規模言語モデル(LLM)の開発を進めている。2024年9月17日、プレビュー版の「LLM-jp-3 172B beta1」を公開した。パラメーター数は約1720億で、米OpenAI(オープンAI)の「GPT-3」に匹敵するという。NIIは「学習データを含めすべてオープンにしたモデルとしては世界最大」としており、透明性・信頼性のあるLLMを目指す。 公開したプレビュー版は、用意した約2兆1000億トークンの学習データのうち、約3分の1までの学習を行った段階のものだという。今後も学習を継続し、全データの学習を行ったモデルを2024年12月頃に公開する計画だ。 学習データとしては日本語や英語をはじめとして中国語、韓国語、プログラムコードを用意した。学習に用いたデータはWebサイトで公開している。LLMの日本語性能を評価するツール「

                                                        NIIが約1720億パラメーターのオープンLLMを開発、学習データ公開で透明性を確保
                                                      • ラズパイ5でLLMを動かしてみよう、チャットAIのGUIアプリを作成

                                                        大規模言語モデル(Large Language Model、LLM)をパソコンなどのローカル環境で動かす「ローカルLLM」が急速に広まっている。課金不要であり、情報漏洩やプライバシー問題も気にする必要がない。注目のローカルLLMの利用法を紹介する。 小型コンピュータ「Raspberry Pi 5」(以降、ラズパイ5。図1)のローカル環境でLLMを動かして、チャットAIのGUIアプリを作ってみます。ラズパイ5は「Raspberry Pi」シリーズの最新機種です。

                                                          ラズパイ5でLLMを動かしてみよう、チャットAIのGUIアプリを作成
                                                        • Llama 3.1 Swallow – Swallow LLM

                                                          Llama 3.1 Swallow Llama 3.1 SwallowはLlama 3.1の英語の能力を維持しながら、日本語の能力を強化した大規模言語モデル (8B, 70B) です。モデルのパラメータ(重み)がHuggingFace上で公開されていますので、Llama 3.1ライセンスに従う限り、研究や商業目的などで利用できます(ただし、指示チューニング済みモデルの利用においては、Llama 3.1ライセンスに従ったうえで、Gemma利用規約の利用制限に抵触してはいけません)。Llama 3.1 Swallowは米Meta社のLlama 3.1をベースに、東京科学大学情報理工学院の岡崎研究室と横田研究室、国立研究開発法人産業技術総合研究所の研究チームで開発されました。Built with Llama. View on HuggingFace Hugging Face Llama 3.1

                                                            Llama 3.1 Swallow – Swallow LLM
                                                          • 驚くほど簡単に使えるローカルLLM、ChatGPT風Webサイトも簡単

                                                            大規模言語モデル(Large Language Model、LLM)をパソコンなどのローカル環境で動かす「ローカルLLM」が急速に広まっている。課金不要であり、情報漏洩やプライバシー問題も気にする必要がない。注目のローカルLLMの利用法を紹介する。 ChatGPTのような「LLM」(Large Language Model、大規模言語モデル)をパソコンやスマートフォンのローカル環境で動かす「ローカルLLM」が急速に広まっています。LLMをパソコンやスマートフォンのストレージに保存し、そのLLMを使って、手元のパソコンやスマートフォンだけでChatGPTのようなチャットAIを動かすのです(図1)。米Appleが2024年6月に発表し、将来のiPhoneやMacに搭載予定の「Apple Intelligence」もローカルLLMです。 ローカルLLMは、ローカル環境で動かすので、当然、従量課金

                                                              驚くほど簡単に使えるローカルLLM、ChatGPT風Webサイトも簡単
                                                            • ChatGPT・Claude、70年代の難問に苦戦! LLMの限界と可能性を探る - イノベトピア

                                                              Last Updated on 2024-10-14 07:41 by admin 2024年10月12日、VentureBeatは大規模言語モデル(LLM)の限界と可能性に関する記事を公開した。この記事では、LLMが1970年代の技術を超えられない問題に直面しているが、それでも価値があると主張している。 記事の中心となる「ストロベリー問題」は、ChatGPTやClaudeなどのLLMが単純な文字数カウントタスクで失敗することを示している。具体的には、「strawberry」という単語に「r」が3つあることを正確に認識できないという問題だ。 この問題は、LLMが人間のような「思考」ができないことを露呈している。しかし、MITのData to AIラボのKalyan Veeramachaneni氏とSarah Alnegheimish氏は、LLMの限界を認識しつつも、その活用方法を提案してい

                                                                ChatGPT・Claude、70年代の難問に苦戦! LLMの限界と可能性を探る - イノベトピア
                                                              • NIIが「学習データ含め全てオープンにした」LLMを公開 学習用日本語データを約5920億トークン用意、コードは何億トークン?

                                                                NIIが「学習データ含め全てオープンにした」LLMを公開 学習用日本語データを約5920億トークン用意、コードは何億トークン?:「オープンかつ日本語に強いLLM」を目指し、全部で約2.1兆トークン学習させる NIIは、約1720億パラメーターの大規模言語モデル「LLM-jp-3 172B beta1」のプレビュー版を公開したと発表した。フルスクラッチ学習で作成され、学習データを含めて全てオープンになっている。

                                                                  NIIが「学習データ含め全てオープンにした」LLMを公開 学習用日本語データを約5920億トークン用意、コードは何億トークン?
                                                                • LLM: 新たな内部脅威? AIセキュリティの最前線と対策 - イノベトピア

                                                                  Last Updated on 2024-10-16 07:33 by admin 人工知能(AI)研究者たちの警告:LLMが新たな「内部脅威」に 人工知能(AI)研究者たちは、大規模言語モデル(LLM)が新たな種類の「内部脅威」となる可能性があると警告している。これは、LLMが組織の機密情報や知的財産を漏洩させる可能性があるためだ。 2024年10月10日、カーネギーメロン大学のソフトウェア工学研究所(SEI)の研究者らが発表した報告書によると、LLMは従来の内部脅威とは異なる特性を持つという。 研究者らは、LLMが以下の3つの主要な脅威をもたらす可能性があると指摘している: 機密情報の漏洩 知的財産の侵害 悪意のある行動の促進 これらの脅威は、LLMの学習データに含まれる情報や、ユーザーとの対話を通じて得た情報から生じる可能性がある。 報告書の著者であるトム・カーシュバウム氏は、LLM

                                                                    LLM: 新たな内部脅威? AIセキュリティの最前線と対策 - イノベトピア
                                                                  • LLMマルチエージェントのフローエンジニアリングを支えるLLM Ops

                                                                    ServerlessDays Tokyo 2024 の登壇資料です。 以下は公演概要です。 ------------------------ Phar…

                                                                      LLMマルチエージェントのフローエンジニアリングを支えるLLM Ops
                                                                    • 【Phi-3.5-vision】ローカルLLMで画像の内容について答える

                                                                      はじめに GMO NIKKOの吉岡です。 前回の記事ではPhi-3-MediumをGPUで動かしてみましたが、今回はもう一つの気になるモデル、Phi-3-visionを紹介します。 新しいバージョン3.5が公開されているので、こちらを試してみます。 Phi-3.5-visionは画像を読み取り、質問から結果を返すLLMとなっています。 サーバー構成・準備 前回の記事でサーバー構成や準備を紹介したので、こちらを参照ください。 LLM LLM:https://huggingface.co/microsoft/Phi-3.5-vision-instruct 4.15B 今回は画像を読み取り結果を返してくれるPhi-3.5-visionを使います。 git clone フォルダを作成し、huggingfaceからcloneします。 大きなファイルがあるため、git lfsが必要です。 mkdir

                                                                        【Phi-3.5-vision】ローカルLLMで画像の内容について答える
                                                                      • LLM-jp-3 1.8B・3.7B・13B の公開 | 国立情報学研究所 大規模言語モデル研究開発センター

                                                                        大規模言語モデル研究開発センター(LLMC)ではオープンかつ日本語に強いGPT-3級大規模言語モデル「LLM-jp-3 172B」の開発を進めています。 このたび、LLM-jp-3 172B の事前学習に使用しているコーパスで学習した 1.8B、3.7B、13B の各モデルを公開いたしました。また、インストラクションチューニングを施したモデルも同時に公開しています。 各モデルは日本語・英語・ソースコードを重点的に学習しています。特にLLM-jp-3 13B は、4月に公開した LLM-jp-13B v2.0 と比較して大幅に性能が向上しており、日本語MT-Benchの平均スコアが 3.67 から 6.47 へと改善されています。 これらのモデルは、Apache License 2.0 のもとで提供されています。データや学習過程まで含めて完全にオープンなモデルとして、アプリケーションへの応用

                                                                        • 驚異のLLMテクノロジーentropixを8Bに拡張するとどうなったか?|shi3z

                                                                          昨日は休もうと思ったのにentropixが衝撃的すぎて結局ずっとコンソールに齧り付いていた。今日は技研スタジオの電気工事があるのだが、技研専属電気技師のふかみんがなかなか他のフロアの作業が終わらないので、その間に誘惑に勝てず、再びentropixを触ってみた。 entropixのオリジナルのコードは1B用なので、これを8Bに拡大してみる。 細かい修正点が多かったのでソースコードをフォークして自分のリポジトリに上げた。プルリクするにはちょっとかけ離れた内容になってしまったので。 8Bにするにあたり、トークナイザーとモデルはLlama3.1をベースにした。 8Bは元々だいぶ賢いのだが、それでも「9.11と9.9はどちらが大きい?」と聞くと、自信満々に「9.11」と返してくるので厄介なモデルである。まあClaude-3もそうだけどね。 1Bでも360Mでも間違わなかったこの質問、entropix

                                                                            驚異のLLMテクノロジーentropixを8Bに拡張するとどうなったか?|shi3z
                                                                          • Google、2400億の検証可能な統計データを接続させたオープンLLM「DataGemma」を発表

                                                                            Googleは2024年9月12日(米国時間)、大規模言語モデル(LLM)のハルシネーション(幻覚)の課題に対処するため、同社の「Data Commons」に接続するよう設計された初のオープンLLM「DataGemma」を発表した。 ハルシネーションは、LLMが不正確な情報に関して自信を持って提示する現象を指す。これは生成AI(人工知能)における重要な課題となっている。Googleは、検証可能な統計データでグラウンディング(接続)され、事実に関する複雑な推論が可能な、より信頼できるLLMを構築する研究を推進している。 ハルシネーション軽減のために、2400億の検証可能な統計データをどう使うのか 関連記事 生成AIのグラウンディング(Grounding)とは? 用語「グラウンディング」について説明。特定の知識や情報源(ナレッジベースなど)に基づいて言語モデルの生成内容を裏付けるプロセスのこと

                                                                              Google、2400億の検証可能な統計データを接続させたオープンLLM「DataGemma」を発表
                                                                            • GitHub - comet-ml/opik: Open-source end-to-end LLM Development Platform

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - comet-ml/opik: Open-source end-to-end LLM Development Platform
                                                                              • ノーコードでLLMマルチエージェントを操る『AUTOGEN STUDIO』Microsoftが新開発 | AIDB

                                                                                背景 さまざまなLLMとツールが協力する「マルチエージェントシステム」は、長い時間がかかる複雑な仕事を解決する方法として注目されています。しかし、マルチエージェントシステムの設計は、多くの開発者にとってまだ難しいことです。 この問題を解決するために今回、『AUTOGEN STUDIO』が作られました。AUTOGEN STUDIOは、AUTOGENという基本となるシステムを使って、複数のLLMが協力するシステムを素早く作り、試し、評価するためのツールです。プログラミングの知識がなくても使えるのが特徴です。 AUTOGEN STUDIOには、次のような特徴があります。 LLMエージェントを、ウェブ画面やPythonで簡単に設定できる マウスでエージェントの働き方を簡単に指定できる システムの動きをすぐに確認したり、問題を見つけたりできる すでに作られたエージェントの部品を再利用できる AUTO

                                                                                  ノーコードでLLMマルチエージェントを操る『AUTOGEN STUDIO』Microsoftが新開発 | AIDB
                                                                                • 富士通の生成AI技術: ソフト開発特化型生成AIと 富岳LLM