並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 154件

新着順 人気順

gpt-3の検索結果1 - 40 件 / 154件

  • GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみた - Qiita

    GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみたPythonAWSAzureOpenAIGoogleCloud はじめに GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultra(Gemini Advanced)に同じ質問をして、回答結果を比較してみました。 Gemini Ultra以外のモデルはPythonコード上から実行し、Gemini UltraはGemini Advancedのチャット上で実行しています。 各モデルの詳細は以下のとおりです。 G

      GPT-3.5-TurboとGPT-4-Turbo、Claude2、Claude3(Haiku)、Claude3(Sonnet)、Claude3(Opus)、Gemini Pro、Gemini Ultraに同じ質問をして、回答結果を比較してみた - Qiita
    • GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z

      日本時間未明(午前三時)ものすごいスピードで語られたOpenAI初の開発者向けイベントDevDayで発表されたGPT-4-TurboとGPT-3.5-TurboによるJSONモード。 これはものすごく強力なんだけど、Python APIによる使い方がどこにも描いてないので試行錯誤の末見つけましたので共有いたします。 from openai import OpenAI import openai import os openai.api_key = "<APIキー>" client = OpenAI() def gpt(utterance): #response = openai.chat( response = client.chat.completions.create( #model="gpt-4-1106-preview", model="gpt-3.5-turbo-1106", r

        GPT-3.5-Turbo / GPT-4-Turbo 1106のJSONモードの使い方|shi3z
      • 国産の日本語生成AIの無料デモ版が公開 ~「GPT-3.5 Turbo」に匹敵する性能を達成/東大初のELYZA社が700億パラメーターのLLM「ELYZA-japanese-Llama-2-70b」を開発

          国産の日本語生成AIの無料デモ版が公開 ~「GPT-3.5 Turbo」に匹敵する性能を達成/東大初のELYZA社が700億パラメーターのLLM「ELYZA-japanese-Llama-2-70b」を開発
        • GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ

          はじめに 結論 背景 課題 Fine-tuning とは? Data の準備 Fine-tuning を実施 結果 おわりに 参考 はじめに こんにちは、DROBE の都筑です。 みなさん LLM 使っていますか。今回は GPT-3.5-turbo の Fine-tuning の事例を紹介します。 結論 GPT-4 を利用して得られたデータを使って GPT-3.5-turbo を Fine-tuning する事で、特定のタスクに関しては GPT-4 相当の性能が出る事が確認できた GPT-4 利用時点で使っていたプロンプトをそのまま使った場合の性能が一番高く、token 節約のためにプロンプトの省略をすると性能が劣化した 背景 LLM を利用したサービスの開発において、OpenAI を利用する場合にはモデルの選択肢がいくつかあります。2023年9月現在では、GPT-4 と GPT-3.5-

            GPT-3.5-turbo を Fine-tuning して GPT-4 相当の性能を獲得する - DROBEプロダクト開発ブログ
          • 【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO

            ただし、GPT-4と比較すると安価にはなっていますので、性能比較をしながら良い塩梅を探すとコスト的にメリットがある可能性があります。 また学習のコストですが、以下のように学習データ全体のトークン数 x エポック数という形で費用が掛かるので注意が必要です。 (エポック数は後述するようにパラメータとして指定可能です) For example, a gpt-3.5-turbo fine-tuning job with a training file of 100,000 tokens that is trained for 3 epochs would have an expected cost of $2.40. 公式ページは以下となりますので、併せてご確認ください。 レート制限 fine-tuningのレート制限については、以下に記載があります。 fine-tuningについては以下のように

              【速報】OpenAI APIでGPT-3.5-turboがfine-tuningできるようになりました!! | DevelopersIO
            • GPT-3.5 Turbo fine-tuning and API updates

              Developers can now bring their own data to customize GPT-3.5 Turbo for their use cases. Fine-tuning for GPT-3.5 Turbo is now available, with fine-tuning for GPT-4 coming this fall. This update gives developers the ability to customize models that perform better for their use cases and run these custom models at scale. Early tests have shown a fine-tuned version of GPT-3.5 Turbo can match, or even

                GPT-3.5 Turbo fine-tuning and API updates
              • OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka

                OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試したのでまとめました。 1. GPT-4 から GPT-3.5 への蒸留「LlamaIndex」で、OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留のColabが提供されてたので、それをベースに独自データで試してみました。 具体的には、「GPT-4」で学習データを生成し、「GPT-3.5」でファインチューニングすることで、「GPT-3.5」に「GPT-4」相当の知識を習得させます。 We successfully made gpt-3.5-turbo output GPT-4 quality responses in an e2e RAG system 🔥 Stack: automated training dataset creation in @ll

                  OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試す|npaka
                • GPT-3.5ベースのChatGPTのコーディング能力は「古い問題には有効も新しい問題では困難に直面する」ことが明らかに

                  GoogleやMistral AIなどからプログラミングに特化したAIツールが登場しており、大手テクノロジー企業のCEOが「AIがコードを書くのでもうプログラミングを学ぶ必要はない」と発言するなど、AIによるプログラミングは注目を集めています。そんなAIによるプログラミング能力を分析した研究が公開されており、AIモデルがトレーニングされたタイミングによっては困難に直面することがあることが判明しました。 No Need to Lift a Finger Anymore? Assessing the Quality of Code Generation by ChatGPT | IEEE Journals & Magazine | IEEE Xplore https://ieeexplore.ieee.org/document/10507163 ChatGPT Code: Is the AI

                    GPT-3.5ベースのChatGPTのコーディング能力は「古い問題には有効も新しい問題では困難に直面する」ことが明らかに
                  • まだChatGPTのAPIでGPT-3.5 Turbo使ってるの?すぐにGPT-4o miniに置換しよう! - Qiita

                    まだChatGPTのAPIでGPT-3.5 Turbo使ってるの?すぐにGPT-4o miniに置換しよう!APIOpenAI生成AIChatGPTGPT-4o-mini ChatGPTのAPIを使ってチャットボットを作ったり、アプリにChatGPTを導入している人も多いと思います。 ChatGPTのAPIが2023年3月に登場して1年、気づけばGPT-3.5 Turboは時代遅れとなりつつあります。 ChatGPTのAPI利用している場合はすぐにでもGPT-4o miniに乗り換えましょう。 GPT-4o miniは激安の生成AI 7月18日に登場したGPT-4o miniは生成AI界隈で大きな注目を集めています。 OpenAIはChatGPTを発表後、GPT-4やGPT-4oなど性能面でのアップデートを主に図ってきました。 そんな中、GPT-4o miniはコスト面を改良した激安AIモ

                      まだChatGPTのAPIでGPT-3.5 Turbo使ってるの?すぐにGPT-4o miniに置換しよう! - Qiita
                    • GPT-3.5に画像分類タスクを解かせる - DROBEプロダクト開発ブログ

                      概要 背景・目的 関連研究 提案手法 実験 終わりに 参考文献 DROBEで機械学習エンジニアをしております、藤崎です。 概要 ファッションの分野ではトレンドの変化とそれに伴う属性情報の変動に対応するため、画像分類AIモデルを頻繁にアップデートする必要性がある。 しかし、既存の画像分類AIモデルのアップデートには、労力と時間が掛かる。 様々なタスクの遂行能力が高いGPT-3.5に画像処理能力を付与し、画像分類タスクに挑戦した。 既存の研究(ex. HuggingGPT)と違って、GPT-3.5自体が画像分類の推論を行う点がユニークである。 実験からは有望な結果が得られた。 今後の性能向上はプロンプトを工夫するなど、比較的簡単な方法で達成できる可能性がある。 背景・目的 ファッションの業界は、トレンドの変化が早く、新しいスタイルが次々と提案されます。それに伴い、スタイルに付随する属性情報も常

                        GPT-3.5に画像分類タスクを解かせる - DROBEプロダクト開発ブログ
                      • Q&A + RAG に特化したLLMをSFTで学習させ4bit量子化モデルを作り、GPT3.5以上の性能を7Bモデルで達成する - A Day in the Life

                        なお、評価に使ったコードはこちらの eval_xxx というコードである。 https://github.com/hotchpotch/youri-7b-stf-qa-context-jaqket/ Supervised Fine-tuning Trainer(SFT) を使った学習 STFは手軽な方法で指示に対して特定フォーマットの出力(Instruction Tuning)を学習させることができる方法である。学習のさせ方も簡単で、例えば ### 指示: 今日の天気は何ですか? ### 入力: 本日は大雨ですね。 ### 応答: 大雨 のような例文を用意する。例では「### 応答:」以降がうまく出力されるように学習して欲しいデータである。この時、例文と「### 応答:」だけ与えれば、よしなに学習してくれる。実際の学習時には、「応答:」以降を推論し、望ましい回答である「大雪」のtokenの

                          Q&A + RAG に特化したLLMをSFTで学習させ4bit量子化モデルを作り、GPT3.5以上の性能を7Bモデルで達成する - A Day in the Life
                        • OpenAIが「GPT-4o mini」をリリース ~「GPT-3.5」は提供終了/「GPT-4o」に迫る性能で大幅に安価

                            OpenAIが「GPT-4o mini」をリリース ~「GPT-3.5」は提供終了/「GPT-4o」に迫る性能で大幅に安価
                          • ELYZA、新たな日本語言語モデルを一般公開 同社「日本語ならGPT-3.5を上回る性能」 商用利用も可

                            ライセンスは「Llama 2 Community License」に準拠しており、研究や商業目的での利用が可能。 ELYZA-japanese-Llama-2-13bを使ったチャット形式のデモもオープンソースAIプラットフォームの「Hugging Face hub」上で公開している。 関連記事 日本語に強い大規模言語モデル「Swallow」 産総研と東工大が公開 事前学習用の日本語データに工夫 産業技術総合研究所と東京工業大学の研究チームは、日本語に強い大規模言語モデル(LLM)「Swallow」を公開した。 マネーフォワード、大規模言語モデル「houou」公開 理研との共同研究 日本語の指示データ2900件を追加学習に利用 マネーフォワードは、理化学研究所(理研)と共同開発した大規模言語モデル(LLM)を公開した。出力精度を上げるため、日本語の指示データ(インストラクションデータ)290

                              ELYZA、新たな日本語言語モデルを一般公開 同社「日本語ならGPT-3.5を上回る性能」 商用利用も可
                            • 「世界トップレベルの大規模言語モデルの開発に着手」──産総研らが表明 目指すのは“GPT-3級の日本語LLM”

                              産業技術総合研究所は10月17日、世界トップレベルの大規模言語モデル(LLM)の開発を始めると発表した。産総研の他にも東京工業大学や、国立情報学研究所が主宰するLLM研究開発チーム「LLM-jp」(東北大学や東京大学、早稲田大学などが参加)も加わる。 LLM-jpが従来の国産LLMの10倍の規模を持つとされるパラメータ数1750億のLLMの構築に着手。産総研は、LLM構築に必要な計算資源として「AI橋渡しクラウド」(ABCI)を提供する。また、3機関で協力して開発に必要な言語データの作成も行う。 産総研は「この取り組みによって、日本で初めてのオープンに利用できるGPT-3級の日本語LLMの構築を目指す」と説明。「これによって、構築の過程が明らかで透明性の高いLLMを用いた、マルチモーダル(画像や言語など複数の入力ソースを扱えること)なデータを処理するAI技術の開発や、生成AIのロボット応用

                                「世界トップレベルの大規模言語モデルの開発に着手」──産総研らが表明 目指すのは“GPT-3級の日本語LLM”
                              • OpenAI 「GPT-4o mini」発表、優れた推論力とコスト効率、GPT-3.5 Turboの置き換えに

                                米OpenAIは7月18日(現地時間)、「GPT-4o mini」を発表した。優れたマルチモーダル推論と低コストを両立させたGPT-4oの小型モデルである。18日より、Assistants API、Chat Completions API、Batch APIを利用するAPI顧客に、GPT-3.5 Turboに代わるテキストおよび視覚モデルとして展開を開始した。エンタープライズ顧客には、来週に提供を開始する。 GPT-4o miniは、GPT-4oと同じ範囲の言語をサポートしている。「MMLU」(自然言語処理モデルの理解力と推論能力を総合的に評価)スコアは82%と、GPT-3.5 Turboや他の小型モデルを上回っている。数学に特化したベンチマーク「MGSM」は87.0%、多言語対応能力と多分野にわたる言語理解能力を評価する「MMMLU」も59.4%と、いずれも高いスコアで優れた実用性を示し

                                  OpenAI 「GPT-4o mini」発表、優れた推論力とコスト効率、GPT-3.5 Turboの置き換えに
                                • Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4

                                  This paper introduces 26 guiding principles designed to streamline the process of querying and prompting large language models. Our goal is to simplify the underlying concepts of formulating questions for various scales of large language models, examining their abilities, and enhancing user comprehension on the behaviors of different scales of large language models when feeding into different prom

                                  • GPT-3は傾向や類似点を見いだして問題を解決する「類推」のテストで大学生を上回る能力を発揮できる

                                    膨大なデータでトレーニングしたGPT-3やBERTなどの大規模言語モデルは、基本的には「文章の並び方に確率を割り当て、次に来るのが自然な語を予測する」というモデルです。ところが、大規模言語モデルはまるで人間のように自然な文章を生成できるほか、画像の生成やタンパク質の立体構造の予測など、さまざまなタスクにも応用することが知られています。新たにカリフォルニア大学ロサンゼルス校の研究チームが、GPT-3は特定の情報を別のものに適用して答えを推測する「類推」のタスクにおいて、大学生を上回るスコアを記録したという研究結果を発表しました。 Emergent analogical reasoning in large language models | Nature Human Behaviour http://dx.doi.org/10.1038/s41562-023-01659-w GPT-3 ca

                                      GPT-3は傾向や類似点を見いだして問題を解決する「類推」のテストで大学生を上回る能力を発揮できる
                                    • 無料で商用利用可能な大規模言語モデル「Mixtral 8x7B」が登場、低い推論コストでGPT-3.5と同等以上の性能を発揮可能

                                      GoogleのDeepMindやMeta出身の研究者によって設立されたAI企業のMistral AIが、大幅にモデルのサイズを縮小してコストパフォーマンスに優れた推論を行える大規模言語モデル「Mixtral 8x7B」をリリースしました。多くのベンチマークでGPT-3.5やLlama 2 70Bを上回る性能を持つとされています。 Mixtral of experts | Mistral AI | Open source models https://mistral.ai/news/mixtral-of-experts/ Mistral AIは2023年5月に設立されたフランスのスタートアップAI企業で、9月にはパラメーター数を70億に抑えながら「Llama 2 13B」や「Llama 1 34B」を上回る性能を持つ大規模言語モデル「Mistral 7B」をリリースするなど積極的にAIの開発

                                        無料で商用利用可能な大規模言語モデル「Mixtral 8x7B」が登場、低い推論コストでGPT-3.5と同等以上の性能を発揮可能
                                      • OpenAIが「GPT-3.5 Turbo」のファインチューニング機能をリリース、用途に合わせた独自のカスタマイズが可能に

                                        対話型AIのChatGPTを開発したOpenAIが、2023年3月にリリースしたGPTモデルファミリー「GPT-3.5 Turbo」のファインチューニング(微調整)機能を発表しました。GPT-3.5 Turboをファインチューニングすることにより、「出力する言語を固定する」「応答の言葉遣いをブランドや企業のイメージに沿ったものにする」など、ユーザーの用途に合わせたカスタマイズが可能になるとのことです。 GPT-3.5 Turbo fine-tuning and API updates https://openai.com/blog/gpt-3-5-turbo-fine-tuning-and-api-updates OpenAI brings fine-tuning to GPT-3.5 Turbo | TechCrunch https://techcrunch.com/2023/08/22

                                          OpenAIが「GPT-3.5 Turbo」のファインチューニング機能をリリース、用途に合わせた独自のカスタマイズが可能に
                                        • Abacus AIがリリースしたオープンソースLLM「Smaug-72B」がHugging FaceのOpen LLM LeaderboardでトップとなりいくつかのベンチマークでGPT-3.5を上回ったことが明らかに

                                          アリババのオープンソース言語モデル「Qwen-72B」を微調整して作られた「Smaug-72B」が2024年2月6日に登場し、同時にSmaug-72Bが「世界最高のオープンソース言語モデル」の座を獲得したことが明らかになりました。 abacusai/Smaug-72B-v0.1 · Hugging Face https://huggingface.co/abacusai/Smaug-72B-v0.1 Smaug-72B - The Best Open Source Model In The World - Top of Hugging LLM LeaderBoard!! Smaug72B from Abacus AI is available now on Hugging Face, is on top of the LLM leaderboard, and is the first mo

                                            Abacus AIがリリースしたオープンソースLLM「Smaug-72B」がHugging FaceのOpen LLM LeaderboardでトップとなりいくつかのベンチマークでGPT-3.5を上回ったことが明らかに
                                          • Databricksがオープンな大規模言語モデル「DBRX」をリリース、GPT-3.5やCodeLLaMA-70Bを上回る性能

                                            データ分析ツールなどを提供する企業のDatabricksが、2024年3月27日にオープンな汎用大規模言語モデル(LLM)である「DBRX」を発表しました。オープンライセンスでの配布となっており、月間アクティブユーザーが7億人以下の企業は無料で商用利用が可能となっています。 Introducing DBRX: A New State-of-the-Art Open LLM | Databricks https://www.databricks.com/blog/introducing-dbrx-new-state-art-open-llm DBRXはトランスフォーマーのデコーダーを使用するLLMで、「mixture-of-experts(MoE)」アーキテクチャが採用されています。パラメータの合計数は1320億となっていますが、全ての入力に反応するのは360億パラメータのみで、残りのパラメ

                                              Databricksがオープンな大規模言語モデル「DBRX」をリリース、GPT-3.5やCodeLLaMA-70Bを上回る性能
                                            • 1960年代のチャットボット「ELIZA」がチューリングテストでOpenAIの「GPT-3.5」を破る

                                              対話相手が機械なのか人間に予想してもらう「チューリングテスト」の結果、「ChatGPT」に使われるOpenAIの言語モデル「GPT-3.5」が1960年代のチャットボット「ELIZA」に敗北したことがわかりました。 [2310.20216] Does GPT-4 Pass the Turing Test? https://arxiv.org/abs/2310.20216 1960s chatbot ELIZA beat OpenAI’s GPT-3.5 in a recent Turing test study | Ars Technica https://arstechnica.com/information-technology/2023/12/real-humans-appeared-human-63-of-the-time-in-recent-turing-test-ai-stud

                                                1960年代のチャットボット「ELIZA」がチューリングテストでOpenAIの「GPT-3.5」を破る
                                              • OpenAI、GPT-3.5 Turboのファインチューニングに対応 常に日本語など

                                                  OpenAI、GPT-3.5 Turboのファインチューニングに対応 常に日本語など
                                                • Fine-tuning GPT-3.5-Turbo for Natural Language to SQL

                                                  Photo by Mariia Shalabaieva on UnsplashBackgroundAllowing non-technical users to ask questions from a database has been a problem of interest in academia and industry for years. The recent advances in Large Language Model (LLM) technology, such as GPT-4, have improved the accuracy of proposed solutions. However, since the most advanced LLMs have not been open for fine-tuning, recent work in the sp

                                                    Fine-tuning GPT-3.5-Turbo for Natural Language to SQL
                                                  • Fine-tuning: gpt-3.5-turboの活用事例。絵文字分類タスク改善のプロセスと、学びの言語化。|にょす

                                                    みなさん、Fine-tuning使ってますか!? 一週間ほど前に、OpenAI社からgpt-3.5-turboがFine-tuning可能になったとのアップデートがありましたね。 ニュースを見て凄そうと思いつつ、少し作業のハードルがあったり、プロンプトエンジニアリングで事足りてるから、そんなに使わないかも?🤔と思ってました。 ただ今回、重い腰を上げて、Fine-tuningを試してみたら、想像以上の結果が得られたので、そのプロセスと学びをまとめます! システムに組み込む際の Prompt Engineering で苦戦している皆さん、Fine-tuningはかなり希望になると思います…!これからはPromptをゴニョゴニョするよりも、Fine-tuningに力を入れていこうと思いました。 ではまとめていきます! 前置きとこれまでの課題今回は、音声メモ日記アプリ「シャべマル」の絵文字分類タ

                                                      Fine-tuning: gpt-3.5-turboの活用事例。絵文字分類タスク改善のプロセスと、学びの言語化。|にょす
                                                    • GPT-3.5 Turboのファインチューニング|npaka

                                                      以下の記事が面白かったので、かるくまとめました。 ・GPT-3.5 Turbo fine-tuning and API updates 1. はじめに「GPT-3.5 Turbo」のファインチューニングが利用可能になりました。「GPT-4」のファインチューニングもこの秋に提供される予定です。 初期のテストでは、ファインチューニングした「GPT-3.5 Turbo」が、特定の狭いタスクに関して「GPT-4」と同等、またはそれ以上のパフォーマンスを発揮できることが示されています。 他のAPIと同様、ファインチューニングAPIで送受信されるデータは、OpenAIやその他の組織が、他のモデルを学習するために使用することはありません。 2. ファインチューニングのユースケース今回のリリースにより、開発者は教師ありファインチューニングで、ユースケースに合わせてこのモデルのパフォーマンスを向上できるよう

                                                        GPT-3.5 Turboのファインチューニング|npaka
                                                      • GPT-3.5 Turboがカスタマイズ可能に ファインチューニング機能提供 GPT-4も秋対応

                                                        米OpenAIは8月22日(現地時間)、大規模言語モデル「GPT-3.5 Turbo」のファインチューニング機能を公開した。利用する企業などが独自のデータを使ってモデルをカスタマイズできるようになった。

                                                          GPT-3.5 Turboがカスタマイズ可能に ファインチューニング機能提供 GPT-4も秋対応
                                                        • ELYZAが新たな日本語LLMを開発 「GPT-3.5 Turboにも匹敵」 チャット形式のデモサイトも公開

                                                          東大発のAIスタートアップ企業であるELYZA(東京都文京区)は3月12日、700億パラメータの大規模言語モデル(LLM)「ELYZA-japanese-Llama-2-70b」を開発したと発表した。日本企業のLLMの性能を大きく上回り、グローバルモデルの性能にも匹敵するという。このLLMを試せるチャット形式のデモ版も公開している。 同社が公開している日本語LLM性能を評価するベンチマーク「ELYZA Tasks 100」などで、開発したLLMの性能評価を行ったところ、日本企業が公開しているLLMの性能を大きく上回った。また、米OpenAIの「GPT-3.5 Turbo」シリーズや、米Anthropicの「Claude 2」シリーズ、米Googleの「Gemini 1.0 Pro」に匹敵する性能を達成したという。

                                                            ELYZAが新たな日本語LLMを開発 「GPT-3.5 Turboにも匹敵」 チャット形式のデモサイトも公開
                                                          • GitHub - OkGoDoIt/OpenAI-API-dotnet: An unofficial C#/.NET SDK for accessing the OpenAI GPT-3 API

                                                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                              GitHub - OkGoDoIt/OpenAI-API-dotnet: An unofficial C#/.NET SDK for accessing the OpenAI GPT-3 API
                                                            • MS、小型AIモデル「Phi-3-mini」を発表--性能は「GPT-3.5」に匹敵

                                                              Don Reisinger (Special to ZDNET.com) 翻訳校正: 佐藤卓 吉武稔夫 (ガリレオ) 2024-04-24 09:35 テクノロジー企業各社は、より大規模でより高性能な人工知能(AI)モデルの構築でしのぎを削っている。だが、小型モデルも依然として大きな価値を持っており、Microsoftはそのコンセプトに大きく賭けようとしている。 Microsoftは米国時間4月23日、今後数カ月以内に3つの小型AIモデルをリリースすることを明らかにし、最初のモデルとして「Phi-3-mini」をリリースした。Phi-3-miniは、トレーニングに使用されたパラメーター(AIモデルがより優れた結果を生成するために使用する変数)数が38億と、計画されている3つのモデルの中で最も規模が小さい。同社は、トレーニング用パラメーター数が70億の「Phi-3-small」と140億の「

                                                                MS、小型AIモデル「Phi-3-mini」を発表--性能は「GPT-3.5」に匹敵
                                                              • NTT版LLM「tsuzumi」サービス開始 軽量でも日本語処理はGPT-3.5超え

                                                                  NTT版LLM「tsuzumi」サービス開始 軽量でも日本語処理はGPT-3.5超え
                                                                • Four AI Agent Strategies That Improve GPT-4 and GPT-3.5 Performance

                                                                  Agentic Design Patterns Part 1 Four AI agent strategies that improve GPT-4 and GPT-3.5 performance Dear friends, I think AI agent workflows will drive massive AI progress this year — perhaps even more than the next generation of foundation models. This is an important trend, and I urge everyone who works in AI to pay attention to it. Today, we mostly use LLMs in zero-shot mode, prompting a model t

                                                                    Four AI Agent Strategies That Improve GPT-4 and GPT-3.5 Performance
                                                                  • OpenAI、GPT-3.5 Turbo値下げやGPT-4 Turbo更新 新埋め込みモデルも

                                                                      OpenAI、GPT-3.5 Turbo値下げやGPT-4 Turbo更新 新埋め込みモデルも
                                                                    • GPT-4o ( omni ) が出たので、経済的自由の探求ブログの紹介記事の要約をGPT-3.5, GPT-4と比較してみました - Be financial freedom. 経済的自由の探求

                                                                      こんにちは、株もっちーです。 火曜日は、身近なネタの日です。 OpenAIからGPT-4oがリリースされました GPT-3.5 GPT-4 GPT-4o まとめ ランキング・宣伝など OpenAIからGPT-4oがリリースされました というわけでなんか早速使ってみたいなと思いまして、以下のなつかしい記事の要約を比較してみたいとおもいます。 kabu-motty.hatenablog.com 全然マルチモーダル機能(テキストのみではなく、音声や、画像などを一緒に扱える機能)を活用できていませんが、その辺はご容赦ください。 GPT-3.5 この記事は、経済的自由についての考察と、その実現方法に焦点を当てています。著者は、経済的自由を「お金に束縛されない状態」と捉え、これを実現するためには資金が必要であると述べています。具体的には、投資による資産形成や収入の確保が重要であり、FIRE(Finan

                                                                        GPT-4o ( omni ) が出たので、経済的自由の探求ブログの紹介記事の要約をGPT-3.5, GPT-4と比較してみました - Be financial freedom. 経済的自由の探求
                                                                      • 「ChatGPT」が開発で役に立たない納得の理由 ただし、GPT-3.5版に限る:787th Lap

                                                                        開発現場においてプログラミング作業を効率化できると「ChatGPT」に期待が集まる。一方で、まだ開発を任せられる段階ではないとの意見もある。 生成AIに期待できることの一つに「コード生成」がある。2024年2月にNVIDIAのジェンスン・フアンCEOが「AIの登場によってプログラミングはもはや人に不可欠なスキルではなくなった」と公言したこともあってか、「プログラマーは不要になるのでは」などとささやかれた。それに対して、「決してプログラマーを葬るようなことにはならない」と異を唱える開発者もいる。 ある研究結果によって、ChatGPTが開発に“使えない”理由が明かされた。 生成AIがコーディングを得意としているのは事実だが、コーディングを任せるにはまだ不安がある。そんな研究結果が発表された。 この件の詳細が、IEEEが発行しているソフトウェアエンジニアリング分野の研究や技術進展を扱う学術雑誌『

                                                                          「ChatGPT」が開発で役に立たない納得の理由 ただし、GPT-3.5版に限る:787th Lap
                                                                        • chatGPT(gpt3.5-turbo)をファインチューニングしてみた(functions対応) - Qiita

                                                                          はじめに こんにちは、@nano_sudoです! ついに、皆様ご待望のgpt3.5-turboのファインチューニングができるようになりました! ということで、今回は、chatGPT(gpt-3.5-turbo)をファインチューニングする方法を紹介します。 2023年10月4日追記 fine-tuningモデルでfunction callingが利用可能になりました! 関数呼び出しを使用する場合は、こちらをご覧ください。 ファインチューニングのメリット ファインチューニングを行うことで、APIを通じて利用可能なモデルをさらに活用することができます: プロンプトよりも高品質な結果 プロンプトに収まりきらないほどの例でトレーニングできる能力 短いプロンプトによるトークンの節約 低レイテンシーのリクエスト (OpenAI公式ドキュメント)[Fine-tuning]より引用したものを翻訳 プロンプト

                                                                            chatGPT(gpt3.5-turbo)をファインチューニングしてみた(functions対応) - Qiita
                                                                          • 計算機科学:GPT-3は類推によって推論できる | Nature Human Behaviour | Nature Portfolio

                                                                            大規模言語モデルGPT-3は、直接的な訓練なしに、複雑な推論課題を遂行して、人間の参加者と同等かそれ以上のレベルで問題に対する妥当な解を見つけられることを報告する論文が、Nature Human Behaviourに掲載される。 人間の知性の特徴の1つは、以前に遭遇したことのない新たな問題を解決できる能力である。認知科学者たちは、こうした問題解決は、「類推」として知られる重要なメンタルツールによると考えている。類推とは、なじみのない問題と過去に遭遇したことのある問題との間の類似性を見分けて妥当な解を見つける能力である。 今回、Taylor Webbらは、大規模言語モデルGPT-3の類推課題に関する成績の評価を行い、得られた結果を人間の成績と比較した。評価対象の課題は、文章に基づく行列推理問題、文字列の類推、話し言葉の類推、ストーリーの類推で、いずれも、パターンが特定された後に新たな状況に適

                                                                              計算機科学:GPT-3は類推によって推論できる | Nature Human Behaviour | Nature Portfolio
                                                                            • 5chスレッドを生成AIで分析してみた(GPT3.5+Claude3)

                                                                              はじめに この記事では、5chスレッドのコメントを大規模言語モデル(LLM)を使って分析する手法と、その過程で遭遇した課題や解決策を紹介します。 TL;DR この記事では、5chスレッドのコメントを大規模言語モデル(LLM)を使って分析する手法と、その過程で遭遇した課題や解決策を紹介します。 分析対象のスレ → リップクリーム・リップケア総合スレ35本目 分析結果 → https://talk-analyzer.pages.dev/ 大規模言語モデルを用いたテキスト分析の応用可能性 LLMを用いたテキスト分析は、様々な業務に活用できる可能性があります。 マーケティングにおける定性分析: SNSやインタビューなどのテキストデータを分析し、顧客の価値観やニーズ、ブランドイメージなどを把握する。 企業にかかわる重要リスクの監視: ニュース記事や企業の財務報告書などのテキストデータを分析し、潜在的

                                                                                5chスレッドを生成AIで分析してみた(GPT3.5+Claude3)
                                                                              • 「歌え!GPT!」 “GPT-3縛り”でAIミュージックバトルに参戦して学んだこと

                                                                                プロンプティングからOpenAI API、さらには周辺のライブラリやHubのエコシステムまで広く活用の助けになる知見を共有し、みんなで手を動かして楽しむためのコミュニティ「ChatGPT Meetup」。3回目に登壇したのは、yatszhash氏。GPT-3を使ったアプローチで「音楽アドリブ生成AIコンテスト」に参戦した時の取り組みについて発表しました。 テキストのLanguage Modelで「音楽アドリブ生成AIコンテスト」に参戦 yatszhash氏:「歌え!GPT!text LLMによるアドリブ生成AIコンテスト参戦!」というタイトルで発表させていただきます。 と言っても、すみません、私、口下手なので、まずは1曲演奏をさせてください。言語モデルにさせます。 ということで、こちら、オルガンのメロディー部分が生成部分になります。伴奏は、人間が作ったものです。 今回の話は、GPTとは別の

                                                                                  「歌え!GPT!」 “GPT-3縛り”でAIミュージックバトルに参戦して学んだこと
                                                                                • OpenAI、より安価で長文に対応するLLM(大規模言語モデル)「GPT-4 Turbo」をプレビュー/「GPT-3.5 Turbo」もアップデートされるほか、「Assistants API」もベータ版に

                                                                                    OpenAI、より安価で長文に対応するLLM(大規模言語モデル)「GPT-4 Turbo」をプレビュー/「GPT-3.5 Turbo」もアップデートされるほか、「Assistants API」もベータ版に