![Microsoft、「Windows Copilot Runtime」を発表/ローコードAPIから低レベル開発まで、WindowsのすべてのレイヤーへAIを注入](https://cdn-ak-scissors.b.st-hatena.com/image/square/6092d145cddf0df90f16c6b748cc072fd0087664/height=288;version=1;width=512/https%3A%2F%2Fforest.watch.impress.co.jp%2Fimg%2Fwf%2Flist%2F1593%2F474%2Fimage1.jpg)
はじめに JCEXで実践しているAPIテストについて 単体テスト 負荷テスト なぜAPIの単体テストを行っているのか API単体テストで使用するパッケージ 実例によるAPI単体テストの環境構築 前提 ステップ1: テストしたいAPIの定義 ステップ2: テストの作成 ステップ3: APIの実装 ステップ4: DBを使ったテスト ステップ5: ヘルパー関数化 ステップ6: テーブル駆動テストに変える ステップ7: フィクスチャを使ったテスト まとめ おわりに はじめに こんにちは、enechainのGXデスクでエンジニアをしている@ejiです。 GXデスクは、『日本気候取引所 - Japan Climate Exchange』 (以下 JCEX) のサービス開発を担当しており、 私は主にBFFとバックエンドのAPIをGoで開発しています。バックエンドのAPIは gRPC を使用しています。
印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます OpenAIは、「ChatGPT」や「Copilot」といった最も人気の高いAIチャットボットのいくつかを動作させるのに利用されている高度な大規模言語モデル(LLM)で最も知られている。マルチモーダルモデルは、視覚アプリケーションの新たな範囲を解き放つことでチャットボットの能力を新たな段階に引き上げることができ、OpenAIは一つのモデルを開発者に対して利用可能にした。 OpenAIは米国時間4月9日、「GPT-4 Turbo with Vision」が「OpenAI API」を通じて開発者に一般提供されたとX(旧Twitter)の投稿で発表した。同モデルは、最新の「GPT-4 Turbo」モデルにビジョン機能を追加したもの。 この最新
OpenAIのText to Speech APIを利用し、テキストを読み上げてくれるMacアプリ「AudioBuddy」がリリースされています。詳細は以下から。 OpenAIは2023年11月、OpenAI Dev Dayの中でGPT-4 Turboなどと共にテキストを人間が発音するように読み上げてくれるText to Speech (TTSモデル)を発表し、ユーザーにAPIの提供を開始しましたが、このTTS APIを利用し選択したテキストを読み上げてくれるMacアプリ「AudioBuddy」が新たにリリースされています。 Select the text from ANY app and listen to text.Powered by OpenAI TTS (You have to bring your own OpenAI API key) AudioBuddy – Better
2024年1月1日午後4時ごろに石川県能登沿岸で発生した、最大震度7に及ぶ地震に関連して、防災情報を発信しているアカウント「特務機関NERV」は「APIの使用回数が上限に達したためX(旧Twitter)に自動投稿できない」と投稿した。スマホアプリ版の「特務機関NERV防災」(iOS/Android)を利用するように呼び掛けている。 同アカウントを運営する情報セキュリティ企業のゲヒルンは、23年8月にもXのAPI制限により自動投稿ができなくなった旨を投稿していた。Xはイーロン・マスクによる買収以降、APIの仕様変更や不具合が相次いでいる。 追記:2024年1月1日午後11時 「API制限が緩和された」 同日午後9時ごろ、NERVアカウントは「X社からご連絡を頂き、@UN_NERV および @EN_NERV をPublic Utilities App(公共アプリ)に登録する手続きを緊急的に行っ
「OpenAI API」で提供されている「モデル」をまとめました。 ・Model - OpenAI API 1. OpenAI API で提供されている モデル「OpenAI API」で提供されている「モデル」は、次のとおりです。 ・GPT-4 / GPT-4 Turbo : GPT-3.5を改善し、自然言語やコードを理解し、生成できるモデル ・GPT-3.5 : GPT-3を改善し、自然言語やコードを理解し、生成できるモデル ・DALL-E : 自然言語から画像を生成および編集できるモデル ・TTS : テキストを自然な音声に変換できるモデル ・Whisper : 音声をテキストに変換できるモデル ・Embedding : テキストをベクトル表現に変換できるモデル ・Moderation : テキストが機密または安全かどうかを検出できるモデル ・GPT base : ファインチューニング
サーバ不要でバックエンドAPIのモックを実現する「Mock Service Worker 2.0」正式リリース。Fetch API、ストリームAPI対応など新機能 Webアプリケーションのクライアントを開発する際に、本来ならばサーバ上で稼働するWebアプリケーションのバックエンドのAPIを呼び出してデータを受け取って表示するといった動作を作り込みたいけれども、まだバックエンドのAPIも開発中であったり、何らかの理由でバックエンドを稼働させる環境を用意できなかったりすることは、しばしば起こりえます。 そうしたときにサーバを立てることなく、バックエンドのAPIをモックとして簡単に設定し提供してくれるソフトウェア「Mock Service Worker」の最新版「Mock Service Worker 2.0」が正式にリリースされました。 Announcing MSW 2.0! Migratio
マツダがオープンソースのホームオートメーションソフトウェア Home Assistant が使用するオープンソースのAPIクライアントについて GitHub に DMCA 通知を送り、マツダ車へのアクセス機能を削除させたそうだ (Home Assistant のブログ記事、 Ars Technica の記事、 GitHub のプルリクエスト)。 この API クライアントは Python および JavaScript で書かれており、マツダが Android / iOS 向けに公開している MyMazda アプリが使用する MyMazda (Mazda Connected Service) API を通じたマツダ車の各種情報へのアクセスを可能にするものだ。マツダは API クライアントのコードがプロプライエタリな API 情報を含む同社の特定の情報を利用して書かれたものであり、MyMazd
AWSのコード生成AI「CodeWhisperer」、生成モデルのカスタマイズが可能に。社内の独自ライブラリやAPIを生成コードに組み込める新機能がプレビュー公開 Amazon Web Services(AWS)は、コメントやコードの一部からAIがコードを自動生成してくれるサービス「Amazon CodeWhisperer」の新機能として、生成モデルをカスタマイズし、社内の独自ライブラリやAPIなども生成されるコードに組み込むことができる新機能をプレビュー公開しました。 下記はAWS CEO Adam Selipsky氏のツイート。 Exciting news! Amazon CodeWhisperer’s new customization capability is now available in preview! The new feature helps customers to
自動文字起こしサービスである、OpenAIの「Whisper API」とAWSの「Amazon Transcribe」の精度を比較してみた はじめに 今回は、OpenAIのWhisper APIとAmazon Transcribeという2つの音声文字起こしサービスを試し、それぞれの精度を比較してみました。 Amazon Transcribeは、音声をテキストに変換する自動音声認識サービスです。 ストリーミングとバッチ処理のどちらでも文字起こしが可能です。 攻撃的な言葉を指定すると、Amazon Transcribeがそれらの言葉を文字起こしから自動的に削除する語彙フィルタリングなどの機能もあります。 Amazon Transcribeの詳細は、下記の記事をご参考ください。 OpenAIには音声をテキストに変換する「Whisper」という音声認識モデルがあり、WhisperをAPIの形で呼び
はじめに OpenAI API のFunction Callingを触ったことがなかったため、AWS Lambdaを使いを試してみました。 Function Callingとは、ユーザーから受け取った入力から、事前に定義した呼び出すべき関数を判断して、関数の入力形式通りにJSON形式で出力する機能です。 メリットとしては、指定した型に沿ってJSON形式で出力してくれるため、外部ツールとの連携が容易な点です。 Function Callingでない場合、指定した型に沿ってJSON形式で出力するように、プロンプトを工夫する必要があったり、ユーザーの入力によっては、指定していない型で出力される可能性があります。。 ちなみに、Function Callingの動きや仕組みは、下記の記事が分かりやすかったのでご参考ください。 OpenAIアカウントAPIキーの発行 OpenAIアカウント作成後、AP
AWS、API経由で生成AIを利用する「Amazon Bedrock」正式リリース。コード生成AIのCodeWhispererのカスタマイズも可能に Amazon Web Services(AWS)は、API経由で生成AIなどの基盤モデルが提供される新サービス「Amazon Bedrock」の正式リリースを発表しました。 生成AIなどを実現する基盤モデルをマネージドサービスとして提供する機能は、Microsoft Azureが「Azure OpenAI」で、Google Cloudが「Vertex AI」で提供しています。Amazon Bedrockはこれら生成AIの本格的な競合サービスといえるでしょう。 Amazon Bedrockが提供する基盤モデルを利用することで、生成AIを用いたテキストの生成やテキストの要約、チャットボット、画像生成、検索、パーソナライズなどの機能を構築できます。
米OpenAIは9月20日(現地時間)、文章から画像を生成するAIの次期版「DALL・E 3」を発表した。「ChatGPT Plus」と「ChatGPT Enterprise」のユーザーは、10月に利用可能になる。また、今秋中にAPIとラボ経由の提供も開始する。 2022年4月に発表した「DALL・E 2」と比較して、長いプロンプトの理解力が大幅に高くなったという。「はるかに多くのニュアンスや詳細を理解できるので、アイデアを非常に正確な画像に簡単に変換できる」とOpenAIは説明する。 同じプロンプト(An expressive oil painting of a basketball player dunking, depicted as an explosion of a nebula)での生成画像比較。右がDALL・E 3
AppleがiOS 17・iPadOS 17・macOS Ventura・macOS Monterey・macOS Sonoma向けにSafari 17.0を2023年9月26日にリリース予定です。リリースに先立って、Safari 17.0のレンダリングエンジンであるWebKitのアップデート内容をAppleのWebKit開発陣がブログでまとめています。 WebKit Features in Safari 17.0 | WebKit https://webkit.org/blog/14445/webkit-features-in-safari-17-0/ ◆HTMLのアップデート ・「search」要素をサポート 検索機能は多くのウェブサイトにとって重要な機能となっていることを受けて、新たに「search」要素が追加されました。従来は、全てのユーザーが検索機能を適切に利用できるようにするに
「LangChainソースコードリーディング/テーマ:OpenAI Chat APIを『ちゃんと』使う」は、LangChainでOpenAI Chat APIを「ちゃんと」使うことをテーマとして、ソースコードリーディングを実施する勉強会です。ここで大嶋勇樹氏が登壇。まずは、OpenAIの文書生成APIの基本について紹介します。 大嶋氏の自己紹介 大嶋勇樹氏:では「LangChainソースコードリーディング/テーマ:OpenAI Chat APIを『ちゃんと』使う」ということで、1時間ほど勉強会をします。 (スライドを示して)最初に私の自己紹介ですが、名前は大嶋勇樹と申します。キャリアとしては、新卒で都内のIT企業に入って、その後フリーランスエンジニアを経て、会社を設立して、いろいろやっています。現在は実務に就き始めたエンジニアのスキルアップのサポートということで、研修や勉強会の開催、「Ud
OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留を試したのでまとめました。 1. GPT-4 から GPT-3.5 への蒸留「LlamaIndex」で、OpenAIのファインチューニングAPIによる GPT-4 から GPT-3.5 への蒸留のColabが提供されてたので、それをベースに独自データで試してみました。 具体的には、「GPT-4」で学習データを生成し、「GPT-3.5」でファインチューニングすることで、「GPT-3.5」に「GPT-4」相当の知識を習得させます。 We successfully made gpt-3.5-turbo output GPT-4 quality responses in an e2e RAG system 🔥 Stack: automated training dataset creation in @ll
ただし、GPT-4と比較すると安価にはなっていますので、性能比較をしながら良い塩梅を探すとコスト的にメリットがある可能性があります。 また学習のコストですが、以下のように学習データ全体のトークン数 x エポック数という形で費用が掛かるので注意が必要です。 (エポック数は後述するようにパラメータとして指定可能です) For example, a gpt-3.5-turbo fine-tuning job with a training file of 100,000 tokens that is trained for 3 epochs would have an expected cost of $2.40. 公式ページは以下となりますので、併せてご確認ください。 レート制限 fine-tuningのレート制限については、以下に記載があります。 fine-tuningについては以下のように
1. ファインチューニングの利点ファインチューニングの利点は、次のとおりです。 (1) プロンプトよりも高品質な応答 (2) プロンプトに収まりきらないより多くの例の適用 (3) プロンプトの短縮によるトークン数 (コスト) の節約 (4) プロンプトの短縮による処理時間の短縮 モデルは膨大な量のテキストで事前学習されており、このモデルを効果的に利用するため、プロンプトに手順や応答の例を指定する手法が使われます。この例を使用してタスクの実行方法を示すことを「Few-Shot」と呼びます。 ファインチューニングで、プロンプトに収まりきらないより多くの例で学習することにより、さまざまなタスクでより良い結果を達成できるようになります。プロンプトに多くの例を指定する必要はなくなります。これによりトークン (コスト) が節約され、処理時間も短縮されます。 2. ファインチューニングの使用料金ファイン
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く