タグ

ブックマーク / note.com/npaka (5)

  • Microsoft Copilot Studio と Copilot の概要|npaka

    以下の記事が面白かったので、かるくまとめました。 ・Introducing Microsoft Copilot Studio and new features in Copilot for Microsoft 365 1. はじめに「Microsoft」は「Microsoft Ignite 2023」にて「Microsoft Copilot」全体にわたる新しいイノベーションを発表しました。あらゆる場面で「Copilot」が、「Web」「PC」「職場」のコンテキストを理解し、必要なときに適切なスキルを提供します。 2. Copilot の製品ラインナップの更新「Bing Chat」「Bing Chat Enterprise」は、シンプルに「Copilot」になります。質問応答、コンテンツ作成、データ解説などの基的な機能が備わっています。また、Web基盤があるため、常に最新の情報にアクセスで

    Microsoft Copilot Studio と Copilot の概要|npaka
  • OpenAI API で提供されている モデル まとめ|npaka

    1. GPT-3モデル「OpenAI API」は、用途に応じて様々なGPT-3モデルを提供しています。 ・GPT-3 : 自然言語を理解し生成するモデル ・Codex : 自然言語からコードへの変換 および コードを理解し生成するモデル ・Content filter : センシティブ および 安全でないテキストを検出するモデル ・Embeddings : 埋め込み (ベクトル表現) を生成するモデル 2. GPT-3GPT-3」は、自然言語を理解し生成することができるモデルです。 性能の異なる4つの主要モデルを提供しています。Davinciは最も高性能、Adaは最も高速なモデルになります。 2-1. text-davinci-003「GPT-3」の中で最も高性能なモデルです。他のモデルで可能なあらゆるタスクが可能で、多くの場合、より高い品質、より長い出力、より良い命令追従性が得られます

    OpenAI API で提供されている モデル まとめ|npaka
  • 最近話題になった大規模言語モデルまとめ|npaka

    最近話題になった大規模言語モデルをまとめました。 1. クラウドサービス1-1. GPT-4「GPT-4」は、「OpenAI」によって開発された大規模言語モデルです。 マルチモーダルで、テキストと画像のプロンプトを受け入れることができるようになりました。最大トークン数が4Kから32kに増えました。推論能力も飛躍的に向上しています。 現在、「ChatGPT Plus」(有料版)で制限付きで利用できる他、ウェイトリストの登録者を対象に「OpenAI API」での利用も開始しています。

    最近話題になった大規模言語モデルまとめ|npaka
  • ChatGPTプラグイン の概要|npaka

    OpenAI」の「ChatGPTプラグイン」の記事が面白かったので、かるくまとめました。 ・Chat Plugins - OpenAI API ・ウェイトリスト 1. ChatGPTプラグイン「ChatGPTプラグイン」は、「ChatGPT」をサードパーティのアプリケーションに接続するためのプラグインです。「ChatGPT」は、開発者によって定義されたAPIと対話し、機能を強化し、幅広いアクションを実行できるようになります。 次のような機能を追加できます。 ・リアルタイム情報の取得 (スポーツスコア、株価、最新ニュースなど) ・知識ベース情報の取得 (会社のドキュメント、個人的なメモなど) ・ユーザーに代わってアクションを実行 (フライトの予約、べ物の注文など) プラグイン開発者は、マニフェストファイルとAPIエンドポイントを公開します。これらはプラグインの機能を定義し、「ChatGP

    ChatGPTプラグイン の概要|npaka
    kappaseijin
    kappaseijin 2023/03/24
    “「OpenAI」の「ChatGPTプラグイン」の記事が面白かったので、かるくまとめました。”
  • TensorFlow.js の WebAssemblyバックエンド の紹介|npaka

    以下の記事を参考に書いてます。 ・Introducing the WebAssembly backend for TensorFlow.js 1. はじめにTensorFlow.js が ブラウザ と Node.js の両方に WebAssemblyWASM)バックエンド を提供するされたことをお知らせいたします。 このバックエンドは WebGLバックエンド の代替であり、最小限のコード変更で高速なCPU実行をもたらします。幅広いデバイスセット、特にWebGLのサポートがないか、GPUが遅いローエンドのモバイルデバイスでのパフォーマンス向上に役立ちます。XNNPackライブラリ を使用して操作を高速化します。 2. インストール新しいWASMバックエンドを使用するには、2つの方法があります。 ◎ NPM // @tensorflow/tfjs または @tensorflow/tfjs-c

    TensorFlow.js の WebAssemblyバックエンド の紹介|npaka
    kappaseijin
    kappaseijin 2020/11/15
    “一般にWASMは、モデルが小さい場合、幅広いデバイスサポートを重視する場合、プロジェクトが数値の安定性に敏感な場合に適しています。”
  • 1