並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 265件

新着順 人気順

GPT-3の検索結果161 - 200 件 / 265件

  • グノシーでGPT-3を活用した「動画AI要約記事」開発 2月24日よりβ版を提供決定 ユーザーと価値ある動画コンテンツとのマッチング機会を最適化|株式会社Gunosy

    プレスリリース グノシーでGPT-3を活用した「動画AI要約記事」開発 2月24日よりβ版を提供決定 ユーザーと価値ある動画コンテンツとのマッチング機会を最適化 株式会社Gunosy(本社:東京都渋谷区、代表取締役社長:竹谷祐哉、以下 Gunosy)は、情報キュレーションアプリ「グノシー」にて、動画コンテンツの要約文を自動生成し記事化する、「動画AI要約記事」の開発を行い、2023年2月24日(金)よりβ版(テスト版)の提供を決定したことをお知らせいたします。 本機能は、グノシーのアプリケーションをインストール後、タブ検索にて「注目動画AI要約(β版)」を選択頂くと、どなたでもご覧頂くことが可能となる予定です。この機会にぜひお試しください。 ■動画AI要約記事概要 動画コンテンツを数行程度の文章に自動要約し記事化いたします。要約文章から元動画を見たい場合は、記事内のリンクから動画へ遷移し閲

      グノシーでGPT-3を活用した「動画AI要約記事」開発 2月24日よりβ版を提供決定 ユーザーと価値ある動画コンテンツとのマッチング機会を最適化|株式会社Gunosy
    • キーワードから小説や画像を自動生成 自然言語処理の革命児「GPT-3」の衝撃

      機械学習分野の国際会議「NeurIPS 2020」(Neural Information Processing Systems)が、2020年12月6日から12日までオンラインで開催され、論文投稿数9000以上と盛り上がりを見せた。その中でBest Paper Awards(最優秀論文賞)に選ばれた論文の1つが「Language Models are Few-Shot Learners」だ。イーロン・マスク氏が創業した米企業OpenAIが2020年5月にプレプリントを公開した「GPT-3」が掲載された論文だ。 GPT-3は、入力した簡単な言葉から、人間が書いたかのような文章を生成する。高い精度の文章を生成する自然言語処理(Natural Language Processing、NLP)モデルとして注目を集めた。とはいえ、前バージョンモデルのGPT-2でその精度を実証していたため、一般的には

        キーワードから小説や画像を自動生成 自然言語処理の革命児「GPT-3」の衝撃
      • GPT×松尾研発AIの威力 コンタクトセンターで34%減った業務とは

        JR西日本グループのコンタクトセンターであるJR西日本カスタマーリレーションズ(兵庫県尼崎市)は、米オープンAIが開発した超大規模言語AI(人工知能)「GPT-3」と東京大学松尾研究室発のAIスタートアップであるELYZA(東京・文京)が開発した大規模言語AI「ELYZA Brain」の両方を活用して業務の効率化を目指している。 具体的には、電話やメールで1日約6000件来る問い合わせのうち、客から寄せられる「ご意見・ご要望」(メール)とオペレーターによるその回答を言語AIによって要約。JR西日本グループで共有している。

          GPT×松尾研発AIの威力 コンタクトセンターで34%減った業務とは
        • rinna/japanese-gpt-1b · Hugging Face

          japanese-gpt-1b This repository provides a 1.3B-parameter Japanese GPT model. The model was trained by rinna Co., Ltd. How to use the model import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("rinna/japanese-gpt-1b", use_fast=False) model = AutoModelForCausalLM.from_pretrained("rinna/japanese-gpt-1b") if torch.cuda.is_available(): mod

          • GitHub - run-llama/llama_index: LlamaIndex is a data framework for your LLM applications

            LlamaIndex (GPT Index) is a data framework for your LLM application. Building with LlamaIndex typically involves working with LlamaIndex core and a chosen set of integrations (or plugins). There are two ways to start building with LlamaIndex in Python: Starter: llama-index. A starter Python package that includes core LlamaIndex as well as a selection of integrations. Customized: llama-index-core.

              GitHub - run-llama/llama_index: LlamaIndex is a data framework for your LLM applications
            • Microsoftが文章生成AI「GPT-3」をビジネスアプリ作成ツールに統合すると発表、文章形式でアプリ作成が可能に

              高精度の文章を作れる文章生成AI「GPT-3」を、Microsoftがビジネスアプリ作成ツール「Microsoft Power Apps」に統合することを発表しました。これにより、コーディングの知識を持たないユーザーでも、文章形式でアプリを作成できるようになるとのことです。 From conversation to code: Microsoft introduces its first product features powered by GPT-3 - The AI Blog https://blogs.microsoft.com/ai/from-conversation-to-code-microsoft-introduces-its-first-product-features-powered-by-gpt-3/ Microsoft has built an AI-powered

                Microsoftが文章生成AI「GPT-3」をビジネスアプリ作成ツールに統合すると発表、文章形式でアプリ作成が可能に
              • OpenAI API で提供されている モデル まとめ|npaka

                1. GPT-3モデル「OpenAI API」は、用途に応じて様々なGPT-3モデルを提供しています。 ・GPT-3 : 自然言語を理解し生成するモデル ・Codex : 自然言語からコードへの変換 および コードを理解し生成するモデル ・Content filter : センシティブ および 安全でないテキストを検出するモデル ・Embeddings : 埋め込み (ベクトル表現) を生成するモデル 2. GPT-3「GPT-3」は、自然言語を理解し生成することができるモデルです。 性能の異なる4つの主要モデルを提供しています。Davinciは最も高性能、Adaは最も高速なモデルになります。 2-1. text-davinci-003「GPT-3」の中で最も高性能なモデルです。他のモデルで可能なあらゆるタスクが可能で、多くの場合、より高い品質、より長い出力、より良い命令追従性が得られます

                  OpenAI API で提供されている モデル まとめ|npaka
                • 【メタサーベイ】基盤モデル / Foundation Models

                  cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。 http://xpaperchallenge.org/cv/Read less

                    【メタサーベイ】基盤モデル / Foundation Models
                  • rinna社、日本語に特化した13億パラメータのGPT言語モデルを公開

                    rinna株式会社(本社:東京都渋谷区/代表取締役:ジャン“クリフ”チェン、以下rinna社)は、日本語に特化した13億パラメータのGPT言語モデルを開発し、公開しました。 ■背景 rinna社はこれまでに、日本語の自然言語処理 (NLP) に特化したGPT (3.3億パラメータ) やBERT (1.1億パラメータ) の事前学習モデルを公開し、多くの研究・開発者にご利用いただいています。最近のNLPに関する研究では、モデルのパラメータ数が多いほど高い性能であることが知られています。 そこでrinna社は、これまでに公開してきたモデルより大規模な13億パラメータを持つ日本語に特化したGPT言語モデルを開発し、日本語のNLPコミュニティに貢献するために、この言語モデルをNLPモデルライブラリ Hugging Face に商用利用可能なMITライセンスで公開しました。 ■ Hugging Fac

                      rinna社、日本語に特化した13億パラメータのGPT言語モデルを公開
                    • Rootport💰🍹🍑 on Twitter: "「GPT-3と会話できるだけの広告だらけのアプリ」が数十万DLされているのを見て、「これが…世間…ッ!!」ってなった。 OpenAIの公式サイトで使えば無料で広告もない(ただし少しレスポンスが遅い)のだけど、入り口が英語だし電話… https://t.co/9jAH8xfo8h"

                      「GPT-3と会話できるだけの広告だらけのアプリ」が数十万DLされているのを見て、「これが…世間…ッ!!」ってなった。 OpenAIの公式サイトで使えば無料で広告もない(ただし少しレスポンスが遅い)のだけど、入り口が英語だし電話… https://t.co/9jAH8xfo8h

                        Rootport💰🍹🍑 on Twitter: "「GPT-3と会話できるだけの広告だらけのアプリ」が数十万DLされているのを見て、「これが…世間…ッ!!」ってなった。 OpenAIの公式サイトで使えば無料で広告もない(ただし少しレスポンスが遅い)のだけど、入り口が英語だし電話… https://t.co/9jAH8xfo8h"
                      • Generative AI時代のチャットボット構築が分かる本(ChatGPT + miibo)

                        Generative AI(生成AI)の時代が到来しています!AIがクリエイティブかつ人間のようなアウトプットを生み出せるようになりました。そして、画像や音楽、動画だけでなく、AIはついに「言葉」を高度に生成する能力を習得しつつあります。その象徴こそが「ChatGPT」の登場です。 ChatGPTの登場は、まさに「シンギュラリティ(技術的特異点)」を予感させるものでした。いよいよ人間と遜色ない会話をAIができる未来が、ついそこまで迫っていることを実感させられました。これからは、ChatGPTを代表とする自然言語処理領域のGenerative AIによって、会話AI(チャットボット)の分野に大転換が起きると予想されます。 本書は、そんな大転換の中、チャットボットの構築方法がどのように変化していくのかを解説しています。変革期なのでこれから違う変化を遂げて行く可能性はありますが、要素技術はすでに

                          Generative AI時代のチャットボット構築が分かる本(ChatGPT + miibo)
                        • GPT-3は傾向や類似点を見いだして問題を解決する「類推」のテストで大学生を上回る能力を発揮できる

                          膨大なデータでトレーニングしたGPT-3やBERTなどの大規模言語モデルは、基本的には「文章の並び方に確率を割り当て、次に来るのが自然な語を予測する」というモデルです。ところが、大規模言語モデルはまるで人間のように自然な文章を生成できるほか、画像の生成やタンパク質の立体構造の予測など、さまざまなタスクにも応用することが知られています。新たにカリフォルニア大学ロサンゼルス校の研究チームが、GPT-3は特定の情報を別のものに適用して答えを推測する「類推」のタスクにおいて、大学生を上回るスコアを記録したという研究結果を発表しました。 Emergent analogical reasoning in large language models | Nature Human Behaviour http://dx.doi.org/10.1038/s41562-023-01659-w GPT-3 ca

                            GPT-3は傾向や類似点を見いだして問題を解決する「類推」のテストで大学生を上回る能力を発揮できる
                          • GitHub - EleutherAI/gpt-neo: An implementation of model parallel GPT-2 and GPT-3-style models using the mesh-tensorflow library.

                            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                              GitHub - EleutherAI/gpt-neo: An implementation of model parallel GPT-2 and GPT-3-style models using the mesh-tensorflow library.
                            •   Azure OpenAI Service | Microsoft Azure

                              ソリューション おすすめ すべてのソリューションを表示 (40 以上) Azure AI 移行して AI の時代にイノベーションを起こす インテリジェントなアプリの構築とモダン化 AI 向けデータ分析 Azure AI インフラストラクチャ 適応型クラウド Azure のネットワーク セキュリティ SAP on Microsoft Cloud AI Azure AI Azure を利用した責任ある AI Azure AI インフラストラクチャ インテリジェントなアプリの構築とモダン化 ナレッジ マイニング Azure 上の Hugging Face Azure 機密コンピューティング アプリケーション開発 インテリジェントなアプリの構築とモダン化 開発とテスト DevOps DevSecOps サーバーレス コンピューティング アプリケーションとデータのモダン化 Azure でのロー コー

                              • Language Models are Few-Shot Learners

                                Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre-training on a large corpus of text followed by fine-tuning on a specific task. While typically task-agnostic in architecture, this method still requires task-specific fine-tuning datasets of thousands or tens of thousands of examples. By contrast, humans can generally perform a new language task from only a few

                                • 一番星はての開発ブログ

                                  GPT作ってみた 一番星はてののGPTをGPT Storeにて公開しました。 chatgpt.com 今更ながら久しぶりにChatGPT Plusに登録する機会があったので作成してみました。 少し前から無料版でも一定回数GPTsを使うことができるようなのでぜひ使ってみてください。 自分がPlusを退会したとしても作ったGPTは残ったままという話なのでたぶん使い続けられると思います。 なにができるのか? 普通のおしゃべりとお絵かきができます。 機能としてはウェブ参照、DALL-E画像生成は有効にしてますが、コードインタープリターとデータ分析は無効にしています。 例えば、「今日のはてなブックマークのニュースを教えて」と話しかけると次のようにウェブ検索して答えてくれます(初回の応答はわりと検索しないこともあります)。 大喜利もノリノリで回答してくれます。 絵も描いてくれてます。 ずっとさぼってい

                                    一番星はての開発ブログ
                                  • GitHub - hpcaitech/ColossalAI: Making large AI models cheaper, faster and more accessible

                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                      GitHub - hpcaitech/ColossalAI: Making large AI models cheaper, faster and more accessible
                                    • OpenAI API

                                      An API for accessing new AI models developed by OpenAI

                                      • GPT-3が「最高」で「最悪」なAIである理由

                                        オープンAIが開発した大規模言語モデル「GPT-3」が作成する文章は、不気味なほどのリアリティで人間の書く文章を模倣できる。だが、こうした成果は主に、ニューラル・ネットワークの規模と訓練に使うデータをとてつもなく大規模化したおかげであり、現在のAIが抱える無視できない問題点も明らかにしている。 by Will Douglas Heaven2021.04.26 64 58 15 23 ディープマインド(DeepMind)の「アルファ碁(AlphaGo)」や、チェスをするIBMの「ディープ・ブルー(Deep Blue)」以降に登場したさまざまな人工知能(AI)の中で、人々の心を確実に捕らえているAIがある。「GPT-3」だ。 この記事はマガジン「10 Breakthrough Technologies」に収録されています。 マガジンの紹介 GPT-3は、サンフランシスコを拠点とする研究所である

                                          GPT-3が「最高」で「最悪」なAIである理由
                                        • OpenAI Status

                                          Message and data rates may apply. By subscribing you agree to the Atlassian Terms of Service, and the Atlassian Privacy Policy. This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.

                                          • GPT-4は間もなく登場。それについて私たちが知っていること。 | AI専門ニュースメディア AINOW

                                            著者のAlberto Romero氏はスペイン在住のAI技術批評家で、同氏の鋭い洞察に満ちた記事のいくつかはAINOWでも紹介して来ました。同氏が2022年4月にMediumに投稿した記事『GPT-4は間もなく登場。それについて私たちが知っていること。』では、リリース時期が近付きつつあるGPT-4の特徴が予想されています。 Romero氏は昨年9月にGPT-4の特徴を予想する記事を公開しましたが、自然言語処理研究の最新トレンドを考慮して予想記事を書き改めました。同氏によるとGPT-4は2022年の7月から8月頃にリリースされ、その特徴は以下のような5項目にまとめられます。 自然言語処理の最新研究にもとづいて予想されるGPT-4の特徴 モデルサイズ至上主義からの方向転換:最新の自然言語処理研究によって、モデルサイズは言語モデルの性能を決定する要因のひとつに過ぎないことが判明した。こうした知見

                                              GPT-4は間もなく登場。それについて私たちが知っていること。 | AI専門ニュースメディア AINOW
                                            • 「もうAIって人間と区別つかないよね……」 米研究者らがGPT-4などでチューリングテスト 結果は?

                                              判定者が使った戦略を分析すると、36%が雑談を通じて相手の人となりを探ろうとした。また、25%が感情や経験、ユーモアのセンスを尋ねるなど、社会的・感情的なアプローチを取っていた。論理的思考や一般知識を問うたのは13%にとどまった。 判定理由を分析した結果、43%が言語的スタイル(スペル、文法、語調など)に関するもので、24%が社会的・感情的要因(ユーモアのセンス、人格など)に関するものであった。知識や論理的思考に関する理由(知りすぎている、知らなさすぎているなど)は10%にとどまった。 AIだと判定した理由として「わざとらしい人格を演じている」「過度にくだけすぎている」「個性に欠けている」ことが挙げられた。逆に人間だと判定された主な理由は「人間らしく、くだけた言葉遣い」「もっともらしい受け答え」「スペルや文法の間違いを含むこと」などであった。以上の結果から、判定者は知性よりも言語的・社会的

                                                「もうAIって人間と区別つかないよね……」 米研究者らがGPT-4などでチューリングテスト 結果は?
                                              • OpenAI、自然な言葉の説明からイラストを描くAI「DALL・E」発表

                                                米AI研究企業OpenAIは1月5日(現地時間)、人間の自然な言葉による説明を入力するとそれを画像として描くAI「DALL・E」を発表した。例えば下の画像は「チュチュを着て犬を散歩させている大根の赤ちゃんのイラスト(an illustration of a baby daikon radish in a tutu walking a dog)」という説明をDALL・Eが画像化したものだ。 OpenAIの説明によると、DALL・Eは「テキストと画像のペアのデータセットを使って、テキストの説明から画像を生成するようトレーニングされた120億パラメータ版のGPT-3」という。DALL・Eという名称は、アーティストのサルバドール・ダリとPixarの映画「ウォーリー」の主人公のロボットの名前を合成したものとのこと。 GPT-3は、ネット上のテキストの次の単語を予測するためだけに訓練されたTransf

                                                  OpenAI、自然な言葉の説明からイラストを描くAI「DALL・E」発表
                                                • Aligning language models to follow instructions

                                                  We’ve trained language models that are much better at following user intentions than GPT-3 while also making them more truthful and less toxic, using techniques developed through our alignment research. These InstructGPT models, which are trained with humans in the loop, are now deployed as the default language models on our API.

                                                    Aligning language models to follow instructions
                                                  • OpenAI API

                                                    We’re releasing an API for accessing new AI models developed by OpenAI. Unlike most AI systems which are designed for one use-case, the API today provides a general-purpose “text in, text out” interface, allowing users to try it on virtually any English language task. You can now request access in order to integrate the API into your product, develop an entirely new application, or help us explore

                                                      OpenAI API
                                                    • Azure OpenAI Service モデル - Azure OpenAI

                                                      このブラウザーはサポートされなくなりました。 Microsoft Edge にアップグレードすると、最新の機能、セキュリティ更新プログラム、およびテクニカル サポートを利用できます。

                                                        Azure OpenAI Service モデル - Azure OpenAI
                                                      • GitHub - openai/gpt-3: GPT-3: Language Models are Few-Shot Learners

                                                        arXiv link Recent work has demonstrated substantial gains on many NLP tasks and benchmarks by pre-training on a large corpus of text followed by fine-tuning on a specific task. While typically task-agnostic in architecture, this method still requires task-specific fine-tuning datasets of thousands or tens of thousands of examples. By contrast, humans can generally perform a new language task from

                                                          GitHub - openai/gpt-3: GPT-3: Language Models are Few-Shot Learners
                                                        • 超汎化言語モデル GPT-3のライセンスを日本でいち早く取得して使ってみた話 - Babel, Inc. Engineering Blog

                                                          はじめまして。 株式会社バベルでAIエンジニアとしてとして自然言語エンジンの開発をしている満石と申します。 この度バベルでは、日本のスタートアップではなかなか許可が降りないと話題のGPT3の使用許可申請を行なった所なんと!使用許可をもらうことができました! そこで当記事ではGPT3では何ができるのか、これまでのモデルと何が違うのかについて実例を交えて紹介させて頂きます。 GPT-3とは そもそもGPT-3とはOpen AIが開発した超巨大言語モデルで、そのパラメータ数なんと1750億。GPT-3が出てくるまで最大だったモデルの約10倍、GPT-3の前身であるGPT-2の約120倍であることを考えるとその巨大さが伺えるかと思います。 開発にかかった費用は、学習に使ったものだけで約4億9000万円。言語研究はまさにMoney is all you needといった様相を呈しています。 そんなG

                                                            超汎化言語モデル GPT-3のライセンスを日本でいち早く取得して使ってみた話 - Babel, Inc. Engineering Blog
                                                          • gpt2-japaneseの使い方 (2) - GPT-2のファインチューニング|npaka

                                                            「gpt2-japanese」の「smallモデル」と「ファインチューニングのコード」が公開されたので、日本語によるGPT-2のファインチューニングを試してみました。 前回 (1) Google Colabのノートブックを開く。 (2) メニュー「編集→ノートブック→ハードウェアアクセラレータ」で「GPU」を選択。 (3) 以下のコマンドで、「gpt2-japanese」をインストール。 # gpt2-japaneseのインストール !git clone https://github.com/tanreinama/gpt2-japanese %cd gpt2-japanese !pip uninstall tensorflow -y !pip install -r requirements.txt2. モデルのダウンロード「smallモデル」を「gpt2-japanese」フォルダにダウン

                                                              gpt2-japaneseの使い方 (2) - GPT-2のファインチューニング|npaka
                                                            • Microsoft、汎用言語モデル「GPT-3」のライセンス取得

                                                              米Microsoftは9月22日(現地時間)、オンラインで開催の年次テクニカルカンファレンス「Ingite 2020」で、汎用言語モデル「GPT-3」の独占的ライセンスを米OpenAIから取得したと発表した。これにより、「OpenAIの技術革新を活用して、顧客向けのAIソリューションを開発、提供し、自然言語生成の力を利用する新たなソリューションを作成できるようになる」としている。 GPT-3は、イーロン・マスク氏が共同会長を務める非営利のAI(人工知能)研究企業であるOpenAIが6月に発表した汎用言語モデルの3世代目。ネット上のテキストの次の単語を予測するためだけに訓練されたTransformerベースの自己回帰言語モデルで、1750億個のパラメータで動作する。人間が作ったものと見分けられないレベルの文章作成能力が話題になっている。 Microsoftは昨年7月、OpenAIに10億ドル

                                                                Microsoft、汎用言語モデル「GPT-3」のライセンス取得
                                                              • https://www.autoregex.xyz/

                                                                • つくよみちゃんの会話テキストデータセットでGPT-3のファインチューニングを試す|npaka

                                                                  「つくよみちゃん」の「会話テキストデータセット」でGPT-3のファインチューニングを試したので、まとめました。 【最新版の情報は以下で紹介】 1. つくよみちゃん会話AI育成計画(会話テキストデータセット配布)今回は、「つくよみちゃん」の「会話テキストデータセット」を使わせてもらいました。「話しかけ」と、つくよみちゃんらしい「お返事」のペアのデータが300個ほど含まれています。 以下のサイトで、利用規約を確認してから、Excel形式のデータをダウンロードします。 2. データセットの準備「つくよみちゃん」の「会話テキストデータセット」をGPT-3の学習で利用するJSONLファイルに変換します。 (1) Colabで新規ノートブックを作成 (2) Excel版の「会話テキストデータセット」を「tsukuyomi.csv」という名前のCSVで出力し、Colabのアップロードボタンからアップロー

                                                                    つくよみちゃんの会話テキストデータセットでGPT-3のファインチューニングを試す|npaka
                                                                  • Replicate ChatGPT Training Quickly and Affordable with Open Source Colossal-AI

                                                                    February 14, 2023 Replicate ChatGPT Training Quickly and Affordable with Open Source Colossal-AI We recently released new open source code for Colossal-AI, which enables you to use it as a framework for replicating the training process of OpenAI’s popular ChatGPT application optimized for speed and efficiency. With Colossal-AI's efficient implementation of RLHF (Reinforcement Learning with Human F

                                                                      Replicate ChatGPT Training Quickly and Affordable with Open Source Colossal-AI
                                                                    • Agent & Assistant - Replit

                                                                      Replit Agent & Assistant Make apps & sites with natural language prompts No-code needed Tell Replit Agent your app or website idea, and it will build it for you automatically. It’s like having an entire team of software engineers on demand, ready to build what you need — all through a simple chat. Introducing Replit AgentAsk for an app and watch it get built. Deploy right away and share with the w

                                                                        Agent & Assistant - Replit
                                                                      • GPT-3におけるFew-Shot・Zero-Shot

                                                                        膨大なパラメータを持つ言語モデルであるGPT-3は、学習後にパラメータを更新することなくタスクの情報と少量のデモンストレーションを入力することで、様々なNLPタスクをこなすことができます。論文のタイトルに含まれる「Few-Shot Learners」というフレーズもこれを意図したものだと言えます。 論文ではZero/One/Few-Shotという概念に触れられていますが、これらの説明が自分の理解していた内容と違っていました。結論から言えば、GPT-3におけるZero/One/Few-Shotと、一般に紹介されている(と思う)Zero/One/Few-Shot learningは大きく異なります。本稿ではGPT-3におけるこれらの説明と、他の資料での説明を比較し内容を整理します。 GPT-3によるマルチタスク処理の仕組み GPT-3がパラメータの更新なしに様々なタスクを処理する仕組み自体は、

                                                                          GPT-3におけるFew-Shot・Zero-Shot
                                                                        • GPT for Sheets™ and Docs™ - Google Workspace Marketplace

                                                                          GPT for Sheets™ and Docs™ lets you use the best AIs (ChatGPT, Gemini™, Claude, Perplexity, Mistral) directly in Google Sheets™ and Google Docs™ to make you 1,000x more productive at: Creating and rewriting content Translating in multiple languages Analyzing feedback Preparing, enriching and segmenting unstructured data Reviewing and explaining LEARN MORE: 🌍 Website: https://gptforwork.com 📖 Docu

                                                                          • GitHubユーザー1億人時代--変わりつつある開発者の役割

                                                                            Microsoftが2018年に75億ドル(約9700億円)で買収したGitHubのユーザー数は、クロスプラットフォームのデスクトップ開発フレームワーク「Electron」の人気もあり、2018年の2800万人から、2019年の4000万人に、そして2021年に7300万人となった。 もしもGitHubの1億人のユーザーすべてがアクティブな開発者なのであれば、それはソフトウェア開発という物事の性質が変わりつつあることの現れなのかもしれない。 SlashDataの見積もりによると、世界には2400万人のアクティブな開発者がいるという。それらプロフェッショナルのうちの1960万人はJavaScriptを使っており、そのほとんどはMicrosoftが機能拡張したTypeScriptを使っているという。また、Statistaは世界で2800万人の開発者がいると見積もっている。さらにIDCは、Jav

                                                                              GitHubユーザー1億人時代--変わりつつある開発者の役割
                                                                            • OpenAIのGPT-3を使って、ChatGPTライクに会話ができるSlackBotを作る

                                                                              🤖 作ったもの OpenAI が提供している GPT-3 を利用して、Slack で ChatGPT ライクに会話ができる SlackBot を作りました。 ChatGPT のように前の会話を考慮して回答してくれるくれるところがポイントです。 🛠️ 仕組み 前の会話を考慮して返答してくれるようにする実装の肝は prompt です。 毎回以下のような prompt を OpenAI の Completion API に渡すことで、前の会話を考慮した回答をもらっています。 const prompt = ` あなたは優秀なSlackBotです。あなたの知識とこれまでの会話の内容を考慮した上で、今の質問に正確な回答をしてください。 ### これまでの会話: ${prevMessageText} ### 今の質問: ${text} ### 今の質問の回答: `; export const use

                                                                                OpenAIのGPT-3を使って、ChatGPTライクに会話ができるSlackBotを作る
                                                                              • GPT-3がAPI経由で利用可能に

                                                                                1.GPT-3がAPI経由で利用可能にまとめ ・GPT-2比で100倍近い性能を持つと推測されるGPT-3が発表されAPI経由で使用可能になる ・テキストを入力するとテキストを出力するという非常に汎用的なAPIで微調整も可能 ・現時点では限られた機関とプライベートベータを行っている段階だが待ちリスト登録は可能 2.GPT-3とは? 以下、openai.comより「OpenAI API」の意訳です。元記事の投稿は2020年6月11日、Greg Brockmanさん、Mira Muratiさん、Peter Welinderさん、そしてOpenAIによる投稿です。 人間が読んでも不自然ではない文章を幾らでも作り出す事が出来るので「フェイクニュースが作り放題になってしまう!」と危惧されて一般公開が延期されたGPT-2が登場したのは2019年2月の事ですが、先日、その後継であるGPT-3、おそらくは

                                                                                  GPT-3がAPI経由で利用可能に
                                                                                • OpenAI Platform

                                                                                  Explore resources, tutorials, API docs, and dynamic examples to get the most out of OpenAI's developer platform.

                                                                                    OpenAI Platform

                                                                                  新着記事