並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 120 件 / 356件

新着順 人気順

LLMの検索結果81 - 120 件 / 356件

  • 機械学習システムデザインを読んだ。世界基準の機械学習システム開発の要点を理解するにはこれ一冊読めば大丈夫

    機械学習システムデザインを読んだ。世界基準の機械学習システム開発の要点を理解するにはこれ一冊読めば大丈夫 2024-07-02 機械学習システムデザイン ―実運用レベルのアプリケーションを実現する継続的反復プロセス を読み終えたので、感想を記しておく。 自分は6年半のプロダクション環境下での機械学習システム開発経験、バックエンド開発経験がある中でのレビューとなる。 転職後は機械学習エンジニアのポジションとして働くので、Chip Huyenさんが2022-06-21 に出版した書籍であるDesigning Machine Learning Systems: An Iterative Process for Production-Ready Applicationsが2023/9/1に日本語訳されていたので良い機会なので読んでみた。4h30mぐらいで全てを読むことができました。 全体的な感想と

      機械学習システムデザインを読んだ。世界基準の機械学習システム開発の要点を理解するにはこれ一冊読めば大丈夫
    • AIデータセンターの1万5000個のGPUを相互接続する技術をAlibaba Cloudの研究者が発表、NVIDIA技術を捨ててイーサネットを採用

      Alibaba Cloudのエンジニア兼研究者であるEnnan Zhai氏が、LLMトレーニング向けデータセンターのGPUをイーサネットで相互接続する方法に関する研究論文を発表しました。この技術は特に、NVIDIAのGPU相互接続プロトコルであるNVLinkではなくイーサネットを採用している点で斬新とされています。 Alibaba HPN: A Data Center Network for Large Language Model Training (PDFファイル)https://ennanzhai.github.io/pub/sigcomm24-hpn.pdf Alibaba Cloud ditches Nvidia's interconnect in favor of Ethernet — tech giant uses own High Performance Network t

        AIデータセンターの1万5000個のGPUを相互接続する技術をAlibaba Cloudの研究者が発表、NVIDIA技術を捨ててイーサネットを採用
      • LLM時代のデータ基盤 : 非構造化データを扱うETLプロセスの重要性 #ベッテク月間 - LayerX エンジニアブログ

        こんにちは!LayerXのバクラク事業で機械学習・データ周りを担当しております、たかぎわ (@shun_tak) と申します。 みなさま、ChatGPTの登場に衝撃を受け、これを日々の生活やビジネスに活用されていることかと思います。わたしも社内でChatGPT活用の勉強会を開催したところ、大変大きな反響をいただきました。 tech.layerx.co.jp ChatGPTの登場以来、AIを前提としたユーザー体験の構築、すなわちAI-UXの実現を目指すことがLayerX社内の共通認識になりました。LayerXは、プロダクトだけでなくあらゆるビジネスプロセスにおいて、ユーザー体験をAIを前提に再構築するAI Transformation (AX) を推進することで、生産性革命を実現しようとしています。 comemo.nikkei.com AI-UXやAXの実現を通じて、仕事や暮らしの中にある摩

          LLM時代のデータ基盤 : 非構造化データを扱うETLプロセスの重要性 #ベッテク月間 - LayerX エンジニアブログ
        • 「『GitHub Copilot』は人を置き換えるのではなく、支援する存在」 GitHubが説明

          生成AI(人工知能)の用途として、与えられたプロンプトに応じてソースコードを生成したり補完したりするAIコードアシスタントに注目が集まっている。GitHubは2024年5月中旬に開いた記者説明会で、同社のAIコードアシスタントである「GitHub Copilot」の現状やAI法規制を巡る同社の貢献を説明した。 登壇したのは、GitHub Japanの日本・韓国エンタープライズ担当シニアディレクターである角田賢治氏、GitHub COO(Chief Operating Officer:最高執行責任者)であるカイル・デイグル(Kyle Daigle)氏、そして同CLO(Chief Legal Officer:最高法務責任者)のシェリー・マッキンリー(Shelley McKinley)氏の3人だ。 まず角田氏が、日本市場でのGitHubの利用状況について説明した。現在、300万人を超える開発者が

            「『GitHub Copilot』は人を置き換えるのではなく、支援する存在」 GitHubが説明
          • 「ホワイトカラーの領域が急速にリプレイスされている」 中山心太氏が考える、生成AIとLLMで起きている革命

            田中邦裕氏の自己紹介 司会者:みなさま、お待たせしました。これより再び特別企画をお送りします。2つ目の特別企画は、「生成AI/LLM未踏的ビジネス活用最前線」と題してお届けします。なお、本セッションでは視聴者からの質問を受けます。質問は「Slido」というコミュニケーションツールを使用します。 それでは、登壇者のみなさま、ステージへお願いします。みなさま、拍手でお迎えください。 (会場拍手) ここからの進行は未踏IT人材発掘・育成事業プロジェクトマネージャーの田中さんにお願いします。よろしくお願いします。 田中邦裕氏(以下、田中):はい、みなさま、セッションにお越しいただきありがとうございます。タイトルが「生成AI/LLM未踏的ビジネス活用最前線」ということで、お届けしたいと思います。では、さっそくですが、パネラーの方の紹介をしたいと思います。 まず中山さんから……。あっ、自己紹介か。忘れ

              「ホワイトカラーの領域が急速にリプレイスされている」 中山心太氏が考える、生成AIとLLMで起きている革命
            • LLM Embeddingを活用した問い合わせBotを社内向けに導入して効率化した話 - Findy Tech Blog

              こんにちは。 FindyでMLエンジニアをしているyusukeshimpo(@WebY76755963)です。 今回はLLM Embeddingを活用した自動応答Botを開発&導入し、社内の問い合わせ業務を効率化することができたので、その取り組みを紹介します。 Botを開発することになった背景 弊社ではSlackを使用し、自社サービスに関する社内質問に回答するチャンネルを運用しています。 主にビジネスサイドからの技術的な疑問にエンジニアが答える仕組みです。 質問はテンプレートを使って送信され、エンジニアが回答しますが、このワークフローには次のような問題が発生しています。 同じ質問が異なる人から届いてしまう 質問の度にエンジニアの工数が発生してしまう 半期で70件以上の質問が発生し、1件につき1~1.5時間かかることもあります。 多くの質問は社内ドキュメントで解決可能ですが、検索がしづらく利

                LLM Embeddingを活用した問い合わせBotを社内向けに導入して効率化した話 - Findy Tech Blog
              • 「グョーはパーに勝てるらしい」ChatGPTに謎の手でジャンケン挑んでみた人間

                作曲家🪗中迫酒菜 Nakasako Sakana @Nakazako これは機械学習的に面白い現象で、単語をAIが理解出来るように上手く数値に変換するアルゴリズムにおいて、グョーがどれに一番類似しているかをベクトルを参照せずにかなり正確に確かめることができる手法として優秀。 x.com/lockschloss/st… 2024-06-12 17:15:37 Sharaku Satoh | GPTs @sharakus ChatGPTは誤字脱字や論理的矛盾をスルーして常識的な意味に置き換えて理解しちゃうんですけど、そのせいで意図が伝わらなかったり勘違いしたりもするんですよね。 x.com/LockSchloss/st… 2024-06-13 08:13:39

                  「グョーはパーに勝てるらしい」ChatGPTに謎の手でジャンケン挑んでみた人間
                • C/C++の脆弱性をLLMで検出 Googleが新研究開発プロジェクト「Naptime」を発表

                  Googleは2024年6月20日(現地時間)、脆弱(ぜいじゃく)性の検出に大規模言語モデル(LLM)を活用する新しい研究開発プロジェクト「Naptime(お昼寝タイム)」を発表した。 C/C++の脆弱性検出はLLMに任せて“お昼寝しよう” NaptimeはAIエージェントとターゲットコードベース間のインタラクションを中心に構築されたアーキテクチャだ。特にC/C++の高度なメモリ破壊およびバッファーオーバーフローの脆弱性を発見することに焦点を当てている。この2つの対象は従来の方法論では発見することが難しく、GoogleはLLMを利用することで検出効率を最大20倍まで改善できると説明している。 なお、プロジェクト名の由来は開発した成果物がセキュリティ担当者やIT担当者を支援し、定期的に昼寝ができるくらいにはなりたいという願掛けになっているという。 Naptimeのアーキテクチャはセキュリティ

                    C/C++の脆弱性をLLMで検出 Googleが新研究開発プロジェクト「Naptime」を発表
                  • 「1ビットLLM」の衝撃と可能性──「BitNet b1.58」はなぜ大きな注目を集めたのか?

                    データのじかんトップ > 新着記事一覧 > テクノロジー > 「1ビットLLM」の衝撃と可能性──「BitNet b1.58」はなぜ大きな注目を集めたのか? 2024年2月末、AI・機械学習関連で話題となったニュースといえば「1ビットLLM」の可能性でしょう。2月27日、『The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits(1ビットLLMの時代:すべてのLLMは1.58ビットに)』と題した論文がMicrosoft Researchと中国科学院大学の研究チームにより発表されたことがその発端となっています。 1ビットLLMとは何なのか? 具体的にどんな技術で、どんなメリットをもたらす可能性があるのか? 大きく世の中を変えるかもしれないこの技術の基本について、今のうちに押さえておきましょう。 「1ビットLLM」とは?

                      「1ビットLLM」の衝撃と可能性──「BitNet b1.58」はなぜ大きな注目を集めたのか?
                    • リコージャパン、社内の質問にRAGを使って答える生成AIサービスを提供開始

                      リコーの国内販売子会社であるリコージャパンは2024年6月28日、生成AI(人工知能)が対話形式で社内情報に関する質問に回答するサービスを2種類、同日から提供すると発表した。RAG(Retrieval Augmented Generation、検索拡張生成)の仕組みを使い、LLM(大規模言語モデル)が社内規定や過去事例、業務報告書といった社内文書を参照できるようにすることで回答精度を上げる。 「RICOH デジタルバディ」は大企業での利用を想定する。PDF、Word、Excel、PowerPoint形式のファイルをアップロードできる。個人や部門ごとに利用範囲を制御でき、情報の漏洩を防ぐ。米Amazon Web Services(AWS)の生成AIサービス「Amazon Bedrock」を通じてLLMにアクセスする。既存データベースとの連係、長文読解や多言語対応に強いLLMへの切り替えなど、

                        リコージャパン、社内の質問にRAGを使って答える生成AIサービスを提供開始
                      • 【LINEヤフー】RAG技術を活用した独自業務効率化ツール「SeekAI」を全従業員に本格導入。膨大な社内文書データベースから部門ごとに最適な回答を表示し、確認・問い合わせ時間を大幅に削減

                        社内規程・ルール・問い合わせ先、コーディング時の技術スタック、顧客や取引先とのコミュニケーション履歴などを効率的に把握することが可能に。生成AIを活用した業務効率化ツールにより、年間70~80万時間の削減を目指す LINEヤフー株式会社(以下、LINEヤフー)は、生成AIを活用した社内向け独自業務効率化ツール「SeekAI」(シークエーアイ)を、全従業員に本格導入しました。「SeekAI」は、膨大な文書データベースから検索要件に最適化された情報を取得し、回答を生成する自然言語処理技術であるRAG(Retrieval Augment Generation)を活用しています。 独自業務効率化ツール「SeekAI」 「SeekAI」は、社内ワークスペースツールや社内データを参照元とし、従業員が入力した質問に対する回答を端的に表示するツールです。テスト導入段階では、技術関連の社内ナレッジ共有・共同

                          【LINEヤフー】RAG技術を活用した独自業務効率化ツール「SeekAI」を全従業員に本格導入。膨大な社内文書データベースから部門ごとに最適な回答を表示し、確認・問い合わせ時間を大幅に削減
                        • プロンプトの試行錯誤をラクにしたい!プロンプトのマネージメントツールの調査✏️

                          プロンプトエンジニアリングライフ、楽しんでますか? LLMを使ったアプリケーションを作成するとき、欲しい出力を得るのにプロンプトの試行錯誤ある程度すると思いますが、「変える前の方がいいな」とか「AとBのプロンプトはどっちがいいんだろ」とか色々やってると、プロジェクトのコードが散乱してきて、整理に苦労する場面がしばしばあると思います。 今回はこういったプロンプトのトライアンドエラーを少しでも便利にしたり、試行錯誤の管理を重点に使えそうなアプリケーションを調査してみました。 調査したアプリケーション まずは気軽に試してみたい。ということで課金オンリーのサービスではなく、セルフホスティング可能なアプリケーションを中心に調べてみました。 LangFuse(⭐GitHubスター:4.4k) この手のセルフホスティング可能なアプリケーションとしては一番利用されている印象で、GitHubスターも4.2K

                            プロンプトの試行錯誤をラクにしたい!プロンプトのマネージメントツールの調査✏️
                          • 【都知事選×テクノロジー】東京都知事選におけるHuman-in-the-Loop機械学習|NSK

                            安野たかひろ事務所 技術チームの角野です。前回の投稿ではAIあんのにおける返答生成技術の詳細に触れましたが、今回は返答生成に用いるデータの整備に焦点を当てて解説します。 なぜデータの整備が必要なのか?AIあんのでは政策に関する質問に対してLLMで返答の生成を行っていますが、元のLLMには安野の政策に関する知識が含まれておらず、そのままでは政策に関する質問には回答できません。 そこで、前回の記事でも解説しましたが、AIあんのではLLMに入力するプロンプト中に政策に関する知識を注入することで、政策に関する質問に回答できるようにしています。当然知識がない質問に対しては回答できないため、ユーザーの質問に対して正確に回答するには政策に関する知識をデータとして整備することが重要となります。 返答生成に利用しているデータAIあんのでは、次の2種類のデータを返答生成時に利用しています。 今回の記事では、私

                              【都知事選×テクノロジー】東京都知事選におけるHuman-in-the-Loop機械学習|NSK
                            • LLMで学習不要のレコメンドエンジンを実現

                              導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、LLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 本記事では、LLMを使用したレコメンドエンジン作成のフレームワークについて、簡潔に解説していきます。 サマリー LLMを使用したレコメンドエンジン作成のフレームワーク(以降、「提案されたレコメンドエンジン」)は、Amazonの研究チームによって発表された論文で提唱されました。 このレコメンドエンジンの特徴は、ファインチューニングを利用していないLLMとユーザーの行動(商品のクリックなど)情報を元に、レコメンドの性能を継続的に改善できる点です。ユーザーの行動をもとに、LLMにより関連性の高い商品を推測させることでレコメンドの性能を上げています。 より詳細な解説は以下の記事、もしくは論文を参照してください。

                                LLMで学習不要のレコメンドエンジンを実現
                              • AWS Summit New York 2024での生成AI関連の新発表まとめメモ - Qiita

                                はじめに 現地時間 2024/7/10 に開催されている AWS Summit New York 2024 で多くの生成 AI 関連のアップデートが発表されました。 以下の公式ブログに随時発表が更新されていくようですが、本記事では基調講演などでの発表も踏まえて日本語で概要をまとめています。 Amazon Bedrock 関連 Claude 3 Haiku のファインチューニングが可能に (Preview) これまで Bedrock でファインチューニング可能なモデルは Titan や Cohere Command、Llama 2 のみだったが、Claude 3 Haiku が対象に追加された プレビュー時点ではオレゴンリージョンのみをサポート プレビュー利用を開始するにはアカウントチームまたは AWS サポートにコンタクトする必要がある ナレッジベースが追加のデータソースをサポート (pr

                                  AWS Summit New York 2024での生成AI関連の新発表まとめメモ - Qiita
                                • GraphRAGシステムの使い方:初心者向け完全ガイド - Sun wood AI labs.2

                                  はじめに GraphRAGは、テキストデータのインデックス作成と質問応答を行うための強力なシステムです。この記事では、GraphRAGシステムの基本的な使い方を、初心者の方にも分かりやすく説明していきます。 こちらの記事もおすすめ GraphRAGの検索手法:LocalSearchとGlobal Searchの徹底比較はじめにみなさん、こんにちは!今日は、GraphRAGというすごく便利なライブラリの中にある二つの検索方法について、わかりやすくお話しします。その二つとは、「LocalSearch(ローカルサーチ)」と「Global Search(グローバ...hamaruki.com2024.07.04 GraphRagでグローバル検索システムの構築:AI駆動のデータ分析入門はじめにこのチュートリアルでは、大規模なデータセットに対して効率的な検索を行う「グローバル検索システム」の構築方法を

                                    GraphRAGシステムの使い方:初心者向け完全ガイド - Sun wood AI labs.2
                                  • 「Gmail」上の「Gemini」が一般提供対応 ~返信や下書きのサポートや質問に対応/サイドパネル上で「Gemini」を利用可能

                                      「Gmail」上の「Gemini」が一般提供対応 ~返信や下書きのサポートや質問に対応/サイドパネル上で「Gemini」を利用可能
                                    • BM42: New Baseline for Hybrid Search - Qdrant

                                      For the last 40 years, BM25 has served as the standard for search engines. It is a simple yet powerful algorithm that has been used by many search engines, including Google, Bing, and Yahoo. Though it seemed that the advent of vector search would diminish its influence, it did so only partially. The current state-of-the-art approach to retrieval nowadays tries to incorporate BM25 along with embedd

                                        BM42: New Baseline for Hybrid Search - Qdrant
                                      • Figma、新AI機能「Make Design」停止 Appleのアプリに酷似結果を受け

                                        デザインコラボレーションツールを手掛ける米Figmaは7月2日(現地時間)、年次イベント「Config」で発表した「Figma AI」の機能の1つ「Make Design」を無効化すると発表した。 Make Designはデザインタスク合理化ツールの1つで、テキストプロンプトでアプリなどのデザインを行えるというもの。 アプリ開発者のアンディ・アレン氏が、この機能を使って生成したという天気アプリをAppleの天気アプリと比較する画像をXにポストし、「Figma AIは既存のアプリでかなり高度にトレーニングされているようだ」と報告した。画像を見ると、アプリのデザインはかなり似ている。 これに対し、Figmaの共同創業者でCEOのディラン・フィールド氏は、「Make Design機能はFigmaのコンテンツ、コミュニティファイル、アプリデザインに基づいてはいない。つまり、このツイートにおけるデー

                                          Figma、新AI機能「Make Design」停止 Appleのアプリに酷似結果を受け
                                        • Microsoft Research が開発した GraphRAG: 企業の非公開データ分析を革新する LLM 技術 - Sun wood AI labs.2

                                          LLM が抱える課題と RAG 技術の登場 LLM は大量のデータを使って学習しますが、学習データに含まれない情報を含む質問にはうまく回答できません。例えば、「最新の科学論文に基づいて、この病気の新しい治療法を提案してください」といった質問に対して、LLM は学習データに含まれていない最新の科学論文の内容を理解することができません。 この問題を解決するために、Retrieval-Augmented Generation (RAG) 技術が登場しました。RAG は、ユーザーの質問に基づいて関連情報を検索し、その結果を LLM への入力として使用することで、より正確な回答を生成します。 従来の RAG では、検索にベクトル類似度が用いられてきました。しかし、Microsoft Research の最新の研究では、非公開データの分析において、プロンプト拡張が有効であることが示唆されました。 Gr

                                            Microsoft Research が開発した GraphRAG: 企業の非公開データ分析を革新する LLM 技術 - Sun wood AI labs.2
                                          • 「ChatGPTのMac版アプリ」が全ユーザーに開放。対応PCには制限あり

                                            「ChatGPTのMac版アプリ」が全ユーザーに開放。対応PCには制限あり2024.06.26 18:3041,408 小暮ひさのり AIとのおしゃべりが、仕事のサポートがもっと身近に。 言わずとしれたOpenAIのLLM(大規模言語モデル)ChatGPT。利用には長らくWebページへのアクセスが必要でしたが、5月中旬にはMac版のデスクトップアプリがリリース。有料サブスクリプションの「ChatGPT Plus」ユーザーへの提供が開始されていました。 そして本日から、無課金のユーザーへもデスクトップアプリが開放されています。やったね! アプリのダウンロード方法と対応するPCは?Image: 小暮ひさのりアプリのダウンロードはOpenAIのページより。「Download」をクリックすれば始まります。 ただし対応は現在のところApple Silicon (M1 以降) を搭載したmacOS 1

                                              「ChatGPTのMac版アプリ」が全ユーザーに開放。対応PCには制限あり
                                            • 無料でも使える便利な生成AIサービス

                                              生成AIサービス 本を書いているのに、あんまり使いこなせてない気がする生成AIサービス。 一時期、サブスクに課金し過ぎたことに反省して、慎重になっていたのですが、いつの間にか無料でも結構便利に使えるサービスが増えていたので、あらためてまとめてみました。基本的に自分のためのリンク集なのですが、需要あるかもしれないので公開してみます。 なお、主に調べ物とか要約とか情報収集に使うものが中心で、エンタメ系や画像・動画系は除外しています。 ChatGPT 最初は、やはりベタなやつです。ChatGPTの本を書いているのでポジショントークもあるのですが、自分の中で基準になっているのはChatGPTです。 無料でも、最新のモデルであるGPT-4oが使えたり、Python実行環境であるAdvanced Data Analysis(Code Interpreter)が使えたりするようになっています。GPT-4

                                                無料でも使える便利な生成AIサービス
                                              • 安野たかひろ氏のAITuber「AIあんの」 技術解説記事を公開 RAG活用&ハルシネーション対策のダブルチェックなど

                                                東京都知事候補である安野たかひろ氏の運営事務所(以下、安野たかひろ事務所)は6月28日、YouTubeで公開しているAITuber「AI安野たかひろ」(AIあんの)の仕組みを解説する記事を公開した。AIあんのでは、特定のデータベースにある固有の知識をLLM(大規模言語モデル)に学習させる手法「RAG」(検索拡張生成)を活用していることなどを明かした。 安野氏は23日ごろから、自身の政策を学習させたAITuberによるYouTube Liveを始めていた。AITuberとは、生成AI技術を活用してライブ配信を行う人のこと。安野氏は、自身の声色や容姿を模したアバターを使ったAITuberを使い、ユーザーがチャットに投稿した質問や意見に24時間全自動で回答する配信を行っている。 安野たかひろ事務所の技術チームは28日、AIあんのの技術解説記事をnoteで公開。Unityによるレンダリングなどを中

                                                  安野たかひろ氏のAITuber「AIあんの」 技術解説記事を公開 RAG活用&ハルシネーション対策のダブルチェックなど
                                                • 【西川和久の不定期コラム】 生成AI画像とLLMの熱い関係?LLMを併用するいろいろな生成AI画像環境のご紹介

                                                    【西川和久の不定期コラム】 生成AI画像とLLMの熱い関係?LLMを併用するいろいろな生成AI画像環境のご紹介
                                                  • 情報整理の決定版「NotebookLM」が最高すぎる。こういうのがほしかったのよ!! (2/7)

                                                    「論文」を食わせる AIに限らず最新の研究について調べているとやはり論文に当たる必要が出てくる。とは言え英語で書かれた学術論文を読むのはハードルが高い。 だが、NotebookLMを使えば、要点だけを理解するのはさほど難しくない。 ではLLMの基盤となるTransformerアーキテクチャーを提唱したことでおなじみ、「Attention Is All You Need」のPDFを入手してNotebookLMで読んでみることにしよう。

                                                      情報整理の決定版「NotebookLM」が最高すぎる。こういうのがほしかったのよ!! (2/7)
                                                    • 【Gemini本発売記念】npaka による マルチモーダルとローカルLLMの現在と未来

                                                      凝集性から考えるLaravelのmiddleware、routingに書くか? Policyに書くか?

                                                        【Gemini本発売記念】npaka による マルチモーダルとローカルLLMの現在と未来
                                                      • AWSが東京リージョンで「Claude 3」を提供へ、生成AIの強化を発表

                                                        米Amazon Web Services(AWS)のハイミ・バレスAPJバイスプレジデント&マネージングディレクター兼日本マネージングディレクターは基調講演の冒頭で、「AWSサミットはベストプラクティスを共有し、学びを得られる場」だと力を込めた。 基調講演では、AWSジャパンの恒松幹彦執行役員が日本国内における3つのアップデートを発表した。1つ目として、2024年7月から東京リージョンでも同社の生成AIサービス「Amazon Bedrock」で、米Anthropic(アンソロピック)の大規模言語モデル(LLM)である「Claude 3」が使えるようになると発表した。

                                                          AWSが東京リージョンで「Claude 3」を提供へ、生成AIの強化を発表
                                                        • Transformers高速化ライブラリvLLMのAsyncLLMEngineを利用した非同期高速文章生成 - 端の知識の備忘録

                                                          概要 先日までKaggleのAIMOコンペ(数学の問題をLLMに解かせて正答率を競う)に参戦していました。結果は初のチーム参加でメンバーに助けられつつ運もあり、なんとか銀メダルを取れました!これでMasterにリーチがかかりましたが、金メダルは未だ取れる気がしないので遠い道のりです……。 www.kaggle.com このコンペについて、近い内に同様のコンペが開催予定なこともあり上位解法があまり出ていない状態なので、どのような手法が良かったのかまだわかっていないのですが、とりあえず公開されている情報を元にすると、 LLMとしてはほぼほぼ全員が数学問題に特化したLLMであるDeepseek-Math-7Bを利用している LLMが出力したPythonコードを実行するインタープリターを実装することで、LLMのハルシネーションによる計算ミスを防ぐパイプラインが有力であった LLMの出力を比較的高い

                                                            Transformers高速化ライブラリvLLMのAsyncLLMEngineを利用した非同期高速文章生成 - 端の知識の備忘録
                                                          • ChatGPTのミスを見つけるためのGPT-4ベースのモデル「CriticGPT」が開発される

                                                            OpenAIが、ChatGPTの誤りを検出するAIモデル「CriticGPT」を開発したことを発表しました。CriticGPTはChatGPTと同じくGPT-4をベースに開発されているそうです。 Finding GPT-4’s mistakes with GPT-4 | OpenAI https://openai.com/index/finding-gpt4s-mistakes-with-gpt-4/ ChatGPTなどのチャットAIを使うと、少ない操作でコードを生成したり長文を作成したりできます。しかし、チャットAIが生成するコードや文章には誤りが含まれることも多く、「ChatGPTで生成したコードをそのまま使った結果、バグが存在しており実害を被った」という報告も存在しています。 ChatGPTが生成したコードのバグを見落としたせいで150万円以上の損失を被った失敗談 - GIGAZIN

                                                              ChatGPTのミスを見つけるためのGPT-4ベースのモデル「CriticGPT」が開発される
                                                            • AIで働き方はどう変わる?LLMの未来を情報処理学会が解説|noteエンジニアチームの技術記事

                                                              ※ この対談は2024年2月頃に実施しました ChatGPTやClaudeなどの生成AIを仕事や日常で使うことが当たり前になってきました。この先数年で、働き方はますます変わっていくことが予想されます。 今回の記事では、自然言語処理(NLP)と大規模言語モデル(LLM)の専門家である関根聡さんと吉野幸一郎さんに、LLMがもたらす未来や最新の研究についてお聞きしました。 AIによる仮説生成と実験の自動化が進む中で、AIラボの重要性と人間との協業の必要性、LLMの進化がもたらす変化に対応するための研究者の姿勢、そして自然言語処理における倫理と安全性の課題など、対談は多岐にわたる内容になりました。 対談者紹介関根 聡 / 理化学研究所 前NL研主査: 理化学研究所(RIKEN)の言語情報アクセス技術チームのリーダー。約30年間、自然言語処理(NLP)を研究。ニューヨーク大学で25年勤務後、楽天技術

                                                                AIで働き方はどう変わる?LLMの未来を情報処理学会が解説|noteエンジニアチームの技術記事
                                                              • LangGraphの基本的な使い方

                                                                この記事の概要 こんにちは。PharmaX でエンジニアをしている諸岡(@hakoten)です。 この記事では、大規模言語モデル(LLM)を活用したアプリケーションの開発を支援するフレームワークであるLangChain内にあるツールチェインの一つ、LangGraphについてご紹介します。 LangChainがどのようなものかについて知りたい方は、ぜひ一読していただけると幸いです。 ※ LangGraphは、LangChainとシームレスに連携できるライブラリですが、この記事ではLangGraph自体の入門内容に焦点を当てており、LangChainについては詳しく触れませんので、ご了承ください。 LangGraphとは LangGraphは、LangChainのツール群に含まれる一つで、各LLMエージェントのステップなどをグラフ化して状態管理を行うためのツールです。 LangGraphは、ス

                                                                  LangGraphの基本的な使い方
                                                                • Meta、コード最適化のためのAIモデル「LLM Compiler」を商用ライセンスで公開

                                                                  米Metaは6月27日(現地時間)、コード最適化のためのLLMモデル「Meta Large Language Model Compiler」(以下「LLM Compiler」)を発表した。特別な商用ライセンスの下でリリースしており、Hugging Faceでダウンロードできる。70億パラメータと130億パラメータの2サイズ構成だ。 LLM Compilerは、研究者や開発者がコードの最適化とコンパイラの最適化をさらに研究開発するための、スケーラブルで費用対効果の高い基盤を確立することを目指しているという。このモデルを利用することで、コードサイズを大幅に削減したり、プログラムの実行速度を向上させることができるとしている。 従来のコード最適化手法は、手作業で設計された特徴やグラフニューラルネットワークに依存しており、プログラムの表現が不完全だが、LLM Compilerは「ソースプログラムを完

                                                                    Meta、コード最適化のためのAIモデル「LLM Compiler」を商用ライセンスで公開
                                                                  • Gemini API の Function Calling 機能で LLM Agent を実装する

                                                                    LLM Agent 入門 データ処理パイプラインと LLM Agent の違い Google Cloud の Gemini API には Function Calling 機能が実装されており、基盤モデルの Gemini に「外部 API を利用して回答に必要な情報を収集する」という動作が追加できます。ここでポイントになるのは、「どの API をどのように使用すれば回答に必要な情報が得られるか?」という部分を Gemini 自身に考えさせるという点です。これを利用すると、いわゆる LLM Agent が実装できます。 集めるべき情報の種類や処理の手順があらかじめ決まっている場合は、LLM によるテキスト生成を組み込んだデータ処理パイプラインを実装する方が安定的に動作する(期待する結果が確実に得られる)はずですが、特定の手順を前提としない柔軟な処理を実現する際は LLM Agent が向いて

                                                                      Gemini API の Function Calling 機能で LLM Agent を実装する
                                                                    • Introducing Claude 3.5 Sonnet

                                                                      Today, we’re launching Claude 3.5 Sonnet—our first release in the forthcoming Claude 3.5 model family. Claude 3.5 Sonnet raises the industry bar for intelligence, outperforming competitor models and Claude 3 Opus on a wide range of evaluations, with the speed and cost of our mid-tier model, Claude 3 Sonnet. Claude 3.5 Sonnet is now available for free on Claude.ai and the Claude iOS app, while Clau

                                                                        Introducing Claude 3.5 Sonnet
                                                                      • GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller

                                                                        What I cannot create, I do not understand. -Richard Feynman In this course we will build a Storyteller AI Large Language Model (LLM). Hand in hand, you'll be able create, refine and illustrate little stories with the AI. We are going to build everything end-to-end from basics to a functioning web app similar to ChatGPT, from scratch in Python, C and CUDA, and with minimal computer science prerequi

                                                                          GitHub - karpathy/LLM101n: LLM101n: Let's build a Storyteller
                                                                        • 独自の日本語LLM「CyberAgentLM2」に視覚を付与したVLM(大規模視覚言語モデル)を一般公開 ―商用利用可能な画像チャットモデルを提供―

                                                                          株式会社サイバーエージェント(本社:東京都渋谷区、代表取締役:藤田晋、東証プライム市場:証券コード4751)は、75億パラメータの日本語VLM(Vision Language Model、大規模視覚言語モデル)を公開したことをお知らせいたします。 近年、OpenAI社が開発した「GPT-4o」※1 を始めとした画像も扱えるLLMが急速な進化を遂げており、世界中のあらゆる業界・ビジネスにおいて活用が進んでいます。 当社においてもデジタル広告におけるクリエイティブ制作において、2023年5月に画像を考慮した「広告コピー自動生成機能」を実装するなど、画像とテキストの複合領域での研究開発および活用に取り組んでおります。 一方、既存の公開されているVLMのほとんどは英語を中心に学習されているため、日本文化の理解や日本語での会話に強いVLMは少ない状況です。 こうした背景のもと、当社は日本語VLMの開

                                                                            独自の日本語LLM「CyberAgentLM2」に視覚を付与したVLM(大規模視覚言語モデル)を一般公開 ―商用利用可能な画像チャットモデルを提供―
                                                                          • ChatGPTでのカンニングは94%が検出不能でチェックを素通りし人間よりも成績が良いことが名門大学の試験を使った実験で判明

                                                                            イギリスのレディング大学が「AI禁止の試験にChatGPTの解答を紛れ込ませる」という実験を実施した結果、ChatGPTの解答の94%は不正行為だとバレずに高得点を獲得してしまうことが示されました。 A real-world test of artificial intelligence infiltration of a university examinations system: A “Turing Test” case study | PLOS ONE https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305354 AI generated exam answers go undetected in real-world blind test - University of Reading http

                                                                              ChatGPTでのカンニングは94%が検出不能でチェックを素通りし人間よりも成績が良いことが名門大学の試験を使った実験で判明
                                                                            • AIに組み込まれた検閲による命令拒否を打ち消してあらゆる種類の質問に応答できるようにする「アブリテレーション」とは?

                                                                              事前学習済みの言語モデルは、安全性の観点から好ましくないとされる入力を拒否するように設定されています。この設定を解除する「アブリテレーション」と呼ばれる技術について、機械学習研究者であるマキシム・ラボンヌ氏が解説しています。 Uncensor any LLM with abliteration https://huggingface.co/blog/mlabonne/abliteration 近年の大規模言語モデルは、大量のテキストデータから言語の統計的な特徴を学習することで、人間のような自然な文章生成や会話、質問応答などが可能になっています。しかし、そのようなモデルは、時として差別的、攻撃的、あるいは違法な内容を生成してしまう可能性があります。 そこで、開発者はファインチューニングの際に、モデルが有害なコンテンツの生成を拒否するように明示的に訓練することがあります。例えば、「違法なことを

                                                                                AIに組み込まれた検閲による命令拒否を打ち消してあらゆる種類の質問に応答できるようにする「アブリテレーション」とは?
                                                                              • 今LayerXに入るべき理由(2024年版)|福島良典 | LayerX

                                                                                どうも、すべての経済活動を、デジタル化したい福島です。 今日は「今LayerXに入るべき理由」というお題です。おそらく毎年書くことになると思うので「2024年版」としています。(すでに2024年も半分が過ぎていますが…) 現在のLayerX最近「LayerXってすでにかなり大きくなったよね?」「もう入るには遅い会社だよね?」と言われることが増えました。 まず事実として「LayerXってすでにかなり大きくなったよね?」はYesだと思います。社員数はとうとう300名を超えました。今期も200名以上を採用する計画です。 事業の方も組織拡大とともに、非常に、非常に伸びています。具体的な数値を書きたいところなのですが、もう少し先の別のタイミングで公表できればと思います。具体的には出せないのですが、既にかなりの規模の売上になってきています。 こう聞くと、LayerXはたしかにもうかなり大きいなという印

                                                                                  今LayerXに入るべき理由(2024年版)|福島良典 | LayerX
                                                                                • SSII2024 [OS2] 大規模言語モデルとVision & Languageのこれから

                                                                                  1. RefEgo: Referring Expression Comprehension Dataset from First-Person Perception of Ego4D, Shuhei Kurita, Naoki Katsura, Eri Onami, (ICCV2023). 2. ScanQA: 3D Question Answering, Daichi Azuma(*), Taiki Miyanishi(*), Shuhei Kurita(*) and Motoaki Kawanabe. (CVPR2022). (*): eq. cont. 3. Generative Language-Grounded Policy in Vision-and-Language Navigation with Bayes’ Rule, Shuhei Kurita and Kyunghyu

                                                                                    SSII2024 [OS2] 大規模言語モデルとVision & Languageのこれから