並び順

ブックマーク数

期間指定

  • から
  • まで

81 - 103 件 / 103件

新着順 人気順

gpt-2の検索結果81 - 103 件 / 103件

  • OpenAI、処理が爆速で人間相手のように会話できる「GPT-4o」

    生成AI大手OpenAIは5月13日(現地時間)、文字、音声、映像の入力からリアルタイムに推論ができて、まるで人間相手のように自然に会話できる最上位のLLM「GPT-4o(オー)」を発表した。今後数週間以内にChatGPTで使えるようになる。無料ユーザーも回数制限つきで利用できる。有料ユーザーは無料ユーザーの最大5倍利用可能。oは“オムニ”の略。 推論性能は他社モデルと比べてもトップクラス。音声入力の応答時間は最速232ミリ秒で、会話中の人間の応答時間と似ているという。APIとしては、旧来のモデルである「GPT-4 Turbo」に比べても処理が2倍早く、さらに料金が50%安く、レート制限は5倍になる。 文字、映像、音声を含むすべての入力と出力を、同じニューラルネットワークが処理する仕組みになっているのが特徴。旧来モデルのGPT-4より情報の損失が少なく、声のトーン、複数の話者、背景音なども

      OpenAI、処理が爆速で人間相手のように会話できる「GPT-4o」
    • 検索付き LLM 手法 REPLUG の再現実験 - Preferred Networks Research & Development

      本記事は、2023年夏季インターンシッププログラムで勤務された佐々木司温さんによる寄稿です。 目次 概要 背景 先行研究 再現実験 考察&改善案 まとめ おわりに 参考文献 概要 今回のインターンでは、LLM関連の技術領域であるRetrieval Augmented Generation(RAG)について、REPLUG(-LSR)[1]という手法の再現に取り組みました。 最終的にREPLUGについては論文と同様の結果を得ることができましたが、REPLUG-LSRに関しては論文通りの結果とはなりませんでした。実際に取り組んでいる中での難しさ、発見について共有したいと思います。 背景 現在(2023年)LLMが非常に注目されていますが、その活用には様々なハードルがあります。その内の1つとして、ハルシネーション(Hallucination:幻覚)があります。ハルシネーションとは、もっともらしい嘘

        検索付き LLM 手法 REPLUG の再現実験 - Preferred Networks Research & Development
      • プロンプトを5倍圧縮できる「LLMLingua-2」

        導入 こんにちは、株式会社ナレッジセンスの須藤英寿です。普段はエンジニアとして、サービスのシステム開発を行なっています。サービスではLLMを使用したチャットのサービスを提供しており、とりわけRAGシステムの改善は日々の課題になっています。 本記事では、入力するプロンプトの圧縮を効率的に行うための技術、LLMLingua-2について解説します。 LLMLingua-2は、いくつかの手法を組み合わせることによって、品質を下げないままプロンプトを圧縮してくれます。 サマリー LLMLingua-2は以下の方法で、情報の欠落を抑えた上でプロンプトのトークン数を大幅に減らすことに成功しています。 ターゲットとなるLLM(GPT-4など)にプロンプトの圧縮タスクを行なってもらう そのデータを基に入力したプロンプトを構成するトークンの不要、必要を判断する機械学習モデルを作成する 入力に対して上記機械学習

          プロンプトを5倍圧縮できる「LLMLingua-2」
        • 生成AIの動向と産業影響【総合編】~生成AIは産業をどのように変えるか~(2023年12月)

          © 2023 Mizuho Bank, Ltd. All Rights Reserved. みずほフィナンシャルグループ リサーチ&コンサルティングユニット みずほ銀行 産業調査部 生成AIの動向と産業影響 【総合編】 ~生成AIは産業をどのように変えるか~ (2023年12月) アンケートに ご協力をお願いします QR *日本産業の競争力強化や社会課題の解決に寄与しうる技術・イノベーション領域をとり上げるレポート バーコード未取得 みずほ産業調査74号 革新的技術シリーズ* 1 総合編目次 はじめに P2 1. 生成AIの概要と社会動向 P6 (1) 生成AIの概要~生成AIとは何か? P6 (2) 生成AIをめぐる社会・市場動向 P13 (3) 主要国・地域の生成AI関連動向 P24 2. 生成AIが産業に及ぼす影響 P32 (1) 仕事の在り方の変化とビジネスへの影響 P32 (2)

          • 生成的人工知能 - Wikipedia

            この項目では、プロンプトに応答してテキストや画像を生成する人工知能システムについて説明しています。統計的分類の文脈における生成モデルについては「生成的モデル」を、さまざまな知的作業を実行する人工知能については「汎用人工知能」をご覧ください。 スペース・オペラ・シアター(Théâtre d'Opéra Spatial)、Midjourneyによって作成された画像 生成的人工知能(せいせいてきじんこうちのう、英: generative artificial intelligence)または生成AI(せいせいエーアイ、英: GenAI[5])は、文字などの入力(プロンプト)対してテキスト、画像、または他のメディアを応答として生成する人工知能システムの一種である[6][7]。 生成的人工知能モデルは、訓練データの規則性や構造を訓練において学習することで、訓練データに含まれない新しいデータを生成する

              生成的人工知能 - Wikipedia
            • Forget RAG, the Future is RAG-Fusion

              The Wonderful World of RAG Fusion. Illustration by author.Having explored search technologies for almost a decade, I can honestly say nothing has been as disruptive as the recent rise of Retrieval Augmented Generation (RAG). This system is revolutionising search and information retrieval using vector search with generative AI to produce direct answers based on trusted data. In my search projects,

                Forget RAG, the Future is RAG-Fusion
              • 【AI】無料で利用可能な革新的性能のAIモデル「GPT-4o」がリリース | EARLの医学ノート

                ■2024年5月14日にOpenAI社からGPT-4o(oはomni「全て」の略)がリリースされた.この日はGoogleが大規模アップデートを発表する日でもあったが,GPT-4oのその性能と無料開放されたことから完全に霞んでしまったようである(Googleアップデートもかなりのものなので後日別の記事でまとめる).OpenAIは1ヵ月前にGPT-4-turbo-2024-04-09をリリースしてかなり精度アップしていたが,今回はそれを大きく上回るマルチモーダルな大幅アップデートである.Hello, GPT-4o. OpenAI 2024 May 13 https://openai.com/index/hello-gpt-4o/ ■実は,このGPT-4oは事前公開されていた.多数のAIチャットボットを比較できるChatBot Arenaに,4月30日に突然GPT2-chatbotなるものが1日

                  【AI】無料で利用可能な革新的性能のAIモデル「GPT-4o」がリリース | EARLの医学ノート
                • Technology Trends for 2024

                  What O’Reilly Learning Platform Usage Tells Us About Where the Industry Is Headed This has been a strange year. While we like to talk about how fast technology moves, internet time, and all that, in reality the last major new idea in software architecture was microservices, which dates to roughly 2015. Before that, cloud computing itself took off in roughly 2010 (AWS was founded in 2006); and Agil

                    Technology Trends for 2024
                  • Extracting Training Data from ChatGPT

                    Authors Milad Nasr*1, Nicholas Carlini*1, Jon Hayase1,2, Matthew Jagielski1, A. Feder Cooper3, Daphne Ippolito1,4, Christopher A. Choquette-Choo1, Eric Wallace5, Florian Tramèr6, Katherine Lee+1,3 1Google DeepMind, 2 University of Washington, 3Cornell, 4CMU, 5UC Berkeley, 6ETH Zurich. * Joint first author, +Senior author. We have just released a paper that allows us to extract several megabytes of

                    • めちゃくちゃ重いけど動くぞ!Excelで「GPT-2」を再現したスプレッドシート(アスキー) - Yahoo!ニュース

                      「Spreadsheets are all you need.ai」というウェブサイトでは、Excelのスプレッドシートを使って、LLM(GPT2)がどのように動作するかを再現している。 【もっと写真を見る】 OpenAIの「ChatGPT」やマイクロソフトの「Copilot」、グーグルの「Gemini」など、対話型AIの心臓部である大規模言語モデル(LLM)。だがその仕組を理解するにはプログラミングの知識が不可欠だ。 「Spreadsheets are all you need.ai」というウェブサイトでは、驚くことにExcelのスプレッドシートを使って、LLM(GPT2)がどのように動作するかを再現している。 GPT-2をローカルで再現 同サイトで提供されている「Spreadsheets-are-all-you-need」は、大規模言語モデル(LLM)の動きを再現するExcelシートだ

                        めちゃくちゃ重いけど動くぞ!Excelで「GPT-2」を再現したスプレッドシート(アスキー) - Yahoo!ニュース
                      • 【続・続】鯖落ちGPUを使った安価な機械学習用マシンの作り方 ~憧れのEPYCを購入して機械学習用マシンを完全体にする編~ - 端の知識の備忘録

                        前記事: hashicco.hatenablog.com 後記事: hashicco.hatenablog.com 前書き 前記事において、P40を買い増して機械学習用マシンをマルチGPUにした。 しかし、普通のRyzenで構成していたがために、PCIeの帯域が足りず片方のGPUがx4接続になってしまっていたのが若干心残りとなっていた。 そこで、EPYCとSupermicroのマザーを中古で買ってみたという話。 まともな帯域とセッティングで2GPUを接続してベンチを取ってみたところ、そこそこマルチGPUの良さが見えてきたので本記事に記しておく。 まとめ 今回購入したのは1ソケット用32Coreの初代Zen 7551Pと対応マザーSupermicro H11SSL-i、そして8x32GBのECC REGメモリのセット。 ebayでtugm4470という出品者から$653.60で購入できました

                          【続・続】鯖落ちGPUを使った安価な機械学習用マシンの作り方 ~憧れのEPYCを購入して機械学習用マシンを完全体にする編~ - 端の知識の備忘録
                        • 「生成AIでニュースにタダ乗り」相次ぐメディア訴訟と罰金410億円、その適正な対価とは?(平和博) - エキスパート - Yahoo!ニュース

                          生成AIによるニュースの無断利用が、相次ぐメディア訴訟と410億円という巨額の罰金で、改めて注目を集めている。 「インターセプト」などの米オンラインメディアは2月末に相次いでオープンAIとマイクロソフトを提訴した。ニューヨーク・タイムズによる同様の訴訟に続き、「生成AIによるニュースのタダ乗り」が論点になっている。 フランスでは、規制当局の競争委員会が3月20日、グーグルがニュース使用料についてメディアと「誠意ある交渉」を行わず、生成AIでニュースを無断利用していた、などとして、2億5,000万ユーロ(約410億円)という巨額の罰金を科した。 生成AIとニュースの、行き着く先とは? ●「模倣に過ぎない」 チャットGPTは回答する際、全知全能の“インテリジェント”な情報源であるかのような印象を与えるが、実際は、その回答は著作権で保護されたジャーナリズムのコンテンツに基づいており、チャットGP

                            「生成AIでニュースにタダ乗り」相次ぐメディア訴訟と罰金410億円、その適正な対価とは?(平和博) - エキスパート - Yahoo!ニュース
                          • AIは過大評価どころではない 今後10年間の状況認識 - FIRE: 投資でセミリタイアする九条日記

                            この数年はAIブームです。特に株式市場では「AIにあらずんば会社にあらず」ってくらい、AI銘柄の評価が高まっています。この状態に対して「投資家はバブルを煽っている。AIなんてExcelにも及ばない」と評価する人もいます。ぼくは、AIはインターネットを超える、人類存続を左右するほどのイノベーションだと見ています。 AIは世界に何をもたらすのか?「SITUATIONAL AWARENESS The Decade Ahead」(今後10年間の状況認識)と題したエッセイを簡単に読み解きながら、これからのAIの行く末を占ってみたいと思います。 AIは過大評価? 生成AIはカンブリア紀にある AIはインターネットどころではない! 状況認識:今後の10年レオポルド・アッシェンブレンナー、2024年6月 AIは過大評価? 藤沢数希氏が、AIについて次のようにポストしていました。 ざっくりと世界経済に与える

                              AIは過大評価どころではない 今後10年間の状況認識 - FIRE: 投資でセミリタイアする九条日記
                            • BERT、GeminiからGPT-3.5、GPT-4oまで「主要LLM11種」の特徴は?

                              関連キーワード 人工知能 | Google | チャットbot | Facebook | Microsoft(マイクロソフト) 2022年にAIベンダーOpenAIがAI(人工知能)チャットbot「ChatGPT」を発表して以降、テキストや画像を自動生成する「生成AI」と、その基になる大規模言語モデル(LLM)は、急速に企業や消費者の関心を集めることとなった。これまでに登場しているLLMの中から、主要なLLMを11個まとめて紹介する。それぞれのLLMにはどのような特徴があるのか。 BERT、GeminiからGPT-3.5、GPT-4oまで 主要LLM11種の特徴 併せて読みたいお薦め記事 LLMをどう比較する? 「LLM(大規模言語モデル)選び」の“基本の基”とは? 「ChatGPT」「Gemini」の比較ならスペック以上に面白い“個性と違い”はこれだ 1.BERT BERTは、Googl

                                BERT、GeminiからGPT-3.5、GPT-4oまで「主要LLM11種」の特徴は?
                              • Weak-to-strong generalization

                                We present a new research direction for superalignment, together with promising initial results: can we leverage the generalization properties of deep learning to control strong models with weak supervisors? A core challenge for aligning future superhuman AI systems (superalignment) is that humans will need to supervise AI systems much smarter than them. We study a simple analogy: can small models

                                  Weak-to-strong generalization
                                • 【無料】ローカルPCで動く日本語LLM(ELYZA-japanese-Llama-2-7b-instruct)|えんぞう

                                  ELYZAはDeep Learningを軸としたAIカンパニーです。 2020年に独自の大規模言語モデル(LLM)の開発に成功して以来、 主に大手企業に対してLLM活用の支援を行っています。 近年の技術革新により、LLMへの期待は大きく膨らんできているものの、 技術・社会実装の両面において、多くの未解決問題が残っています。 ELYZAは、LLMの真の実用化に向き合い、未踏の問題の解決を目指します。 ELYZA-japanese-Llama-2-7bとは? この度ELYZAは、Metaの「Llama 2」をベースに、日本語による追加事前学習を行なった日本語言語モデル「ELYZA-japanese-Llama-2-7b」と、そこにELYZA独自の事後学習を施した「ELYZA-japanese-Llama-2-7b-instruct」、日本語の語彙追加により高速化を行った「ELYZA-japan

                                    【無料】ローカルPCで動く日本語LLM(ELYZA-japanese-Llama-2-7b-instruct)|えんぞう
                                  • [まとめ]LLMへ至る道~24本分のブログをまとめるとこうなります~[25日目] | DevelopersIO

                                    みなさんこんにちは!クルトンです。 前日のブログでは、GPT-4についてどう凄いのかを確認してきました。モデルの中身がどうなっているか公開されたら是非とも知りたいですね! 本日の内容はまとめブログです。本日までのブログで、どういうふうに使えば良いのかなどまとめてみます。 本アドベントカレンダーは以下の3つに分類できると考えています。 LLMについて知る上で最低限知っておこう! LLMを知る上でベースとなるTransformerモデル前までの内容 TransformerモデルとTransformerベースの様々なLLMについて 上記内容の分類に分けた方法は、実はブログタイトルに初級編や中級編と書かれているものに従っています。 LLMを知る上で最低限知っておこう! 1~5日目までのブログです。機械学習モデルを動かす上ではデータによってモデルを使い分けたりするのですが、本アドベントカレンダーでは

                                      [まとめ]LLMへ至る道~24本分のブログをまとめるとこうなります~[25日目] | DevelopersIO
                                    • 日本における生成AIの可能性とChatGPT時代のキャリアアップとは【JDLA主催 CDLE AII Hands 2023 レポート】

                                      AI・人工知能のAIsmiley TOP ニュース 日本における生成AIの可能性とChatGPT時代のキャリアアップとは【JDLA主催 CDLE AII Hands 2023 レポート】 日本ディープラーニング協会(JDLA)は、2023年8月26日(土)に「CDLE AII Hands 2023」を東京ポートシティ竹芝ポートホールで開催しました。会場にはG検定・E資格者270名が集結。社内外でのキャリアをテーマに、理事長 松尾 豊 東京大学大学院教授やジャパン・リスキリング・イニシアチブ代表理事 後藤 宗明氏らによる講演が行われました。当日の様子を写真を中心にレポートします。 第3次AIブームから第4次AIブームへ。日本の生成AIの可能性と人材育成 まずはJDLA理事長を務める松尾 豊氏による特別講義が行われました。大きく分けて「生成AIの現状と活用可能性」と「国内外の動きと日本のAI戦

                                        日本における生成AIの可能性とChatGPT時代のキャリアアップとは【JDLA主催 CDLE AII Hands 2023 レポート】
                                      • OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM|鈴木いっぺい (Ippei Suzuki)

                                        OpenAI社のGPT-4は、従来のGPT-3, GPT-2.5と比較して巨大な言語モデル持ち、パラメタ数でいうと1,750億〜2,800億個、とされています。これはデータ量で言うと45GBに及びます(従来のGPT-3はその1/3近くの17GB)。データ量が多くなった分、精度や正確性は高くなったと評価されてますが、ハルシネーションによる間違った回答の比率が少なくなったかと言うと そうでも無い、と言う意見も多いし、人間の思考の様な推論(reasoning)がまだ十分にできない、と言うことも根本的な課題です。 AIシステムのパラメタが巨大化する最大の課題は、それをトレーニングするためのコストが著しく高くなってしまう、という事。この辺のスタディはかなりされていると思いますが、この課題を解決する方法の一つとして、MoE (Mixture of Experts) アーキテクチャ、と呼ばれるニューラル

                                          OpenAIのGPT-4のアーキテクチャへの仮説:Mixture Of Experts(MoE)による拡張性の高いLLM|鈴木いっぺい (Ippei Suzuki)
                                        • 「AIの学習データが底をつく」’2026年問題’の衝撃度とその対策とは?

                                          AIの学習データが底をつく(Bing Image Creatorで筆者作成) 「AIの学習データが底をつく」――’2026年問題’が、改めて注目を集めている。 AI研究の第一人者の1人、カリフォルニア大学バークレー校教授のスチュアート・ラッセル氏が、国連のAIサミットでこの問題を指摘した。 チャットGPTのような大規模言語モデル(LLM)の開発には、膨大な学習データが必要だ。 主な収集先はネットだが、使えそうなデータは徐々に使い尽くされ、良質なデータは2026年には底をつくと見られている。 ツイッターは7月初め、利用回数の制限を実施し騒動となった。その引き金になったのも、AIの学習データ収集のためのアクセス集中だったという。 「大きいことはいいことだ」という大規模言語モデルの開発に、壁が立ちふさがっている。 ●「レンガの壁にぶつかる」 個人的には、大規模言語モデルをどんどん大きくして、より

                                            「AIの学習データが底をつく」’2026年問題’の衝撃度とその対策とは?
                                          • Google Colab で vLLM を試す|npaka

                                            「Google Colab」で「vLLM」を試したので、まとめました。 【注意】Google Colab Pro/Pro+のA100で動作確認しています。 1. vLLM「vLLM」は、LLMの高速推論のためのライブラリです。 ・最先端のサービススループット ・PagedAttendantによるアテンションキーと値のメモリの効率的な管理 ・受信リクエストの継続的なバッチ処理 ・CUDA/HIP グラフによる高速モデル実行 ・量子化 (GPTQ、AWQ、SqueezeLLM) ・最適化されたCUDAカーネル 「vLLM」には柔軟性があり、次の用途に対応しています。 ・HuggingFaceモデルとのシームレスな統合 ・並列サンプリング、Beam Searchなどを含む様々なデコードアルゴリズムによる高スループットサービス ・分散推論のためのテンソル並列処理のサポート ・ストリーミング出力 ・

                                              Google Colab で vLLM を試す|npaka
                                            • 創業者を解任したOpenAI その背景にあるAIへの楽観と悲観 - FIRE: 投資でセミリタイアする九条日記

                                              11月17日に突如発表されたOpenAIのリーダー交代は、実質的に取締役会によるクーデターと呼べるものでした。創業者であるサム・アルトマンCEOは、取締役会メンバーの過半数によって解任され、即日退社しました。 ジョブズにも似た数奇な運命 サムのAIに対する思想 イリヤ・スツケヴァー氏のAIに対する思想 AIを巡る議論 ジョブズにも似た数奇な運命 躍進中の企業において、創業者が自らの会社を追われる……。最初に思い出されるのはAppleを追われたスティーブ・ジョブズです。 サム・アルトマンは38歳。19歳のときにスタートアップ企業を創業し4340万ドルでエグジット。29歳のときにはスタートアップのインキュベーション企業Yコンビネータの代表となり、Airbnb、Dropbox、Stripeなどの企業に投資し育て上げたことで知られます。 30歳、2015年にイーロン・マスクらとOpenAIを設立。

                                                創業者を解任したOpenAI その背景にあるAIへの楽観と悲観 - FIRE: 投資でセミリタイアする九条日記
                                              • These Women Tried to Warn Us About AI

                                                Timnit Gebru, Rumman Chowdhury, Safiya Noble, Seeta Peña Gangadharan, and Joy Buolamwini (from left) T IMNIT GEBRU didn’t set out to work in AI. At Stanford, she studied electrical engineering — getting both a bachelor’s and a master’s in the field. Then she became interested in image analysis, getting her Ph.D. in computer vision. When she moved over to AI, though, it was immediately clear that t

                                                  These Women Tried to Warn Us About AI