OpenAI、AIモデルのマルチモーダル対応やファインチューニング機能強化を発表 無料でどこまで使える?:コスト効率を高めるプロンプトキャッシングも導入 OpenAIは、同社のAIモデル向けの「Realtime API」(パブリックβ版)、「Chat Completions API」の音声入出力サポート、「ビジョンファインチューニング」機能、「Model Distillation」スイート、「プロンプトキャッシング」を発表した。
Appleが2024年6月11日に発表したAIアシスタント「Apple Intelligence」は、デバイス上で処理しきれない高負荷タスクをAppleのサーバー上で実行します。AppleはAI処理実行サーバーを「Private Cloud Compute(PCC)」と名付けており、PCCの安全性への取り組みを公式ブログで説明しています。 Blog - Private Cloud Compute: A new frontier for AI privacy in the cloud - Apple Security Research https://security.apple.com/blog/private-cloud-compute/ Apple IntelligenceはiPhoneやMacなどのApple製デバイスに統合されるAIアシスタントで、通知の要約やコンテンツの生成など多
2024年6月11日に開催されたAppleの年次開発者会議「WWDC24」の基調講演では、iPhoneやiPad、Macで使える新しいパーソナルAIの「Apple Intelligence」が発表されました。基調講演後に行われたイベントで、AppleはiOSやiPadOS、macOSにGoogleのマルチモーダルAI「Gemini」を統合したいとの考えを示しています。 Craig Federighi says Apple hopes to add Google Gemini and other AI models to iOS 18 - 9to5Mac https://9to5mac.com/2024/06/10/craig-federighi-says-apple-hopes-to-add-google-gemini-and-other-ai-models-to-ios-18/ Appl
June 10, 2024 OpenAI and Apple announce partnership to integrate ChatGPT into Apple experiences Editor’s Note: This news was shared at Apple's Worldwide Developer Conference 2024. You can also read about the news here(opens in a new window). Apple is integrating ChatGPT into experiences within iOS, iPadOS, and macOS, allowing users to access ChatGPT’s capabilities—including image and document unde
Geminiは炎上、ライブで示したGPT-4oの能力 動画・映像の理解については、現時点でOpenAI公式から細かい評価の説明はほとんどないようです。もっとも、この性能の高さについては、OpenAIのライブや、その後に公開されたGPT-4oの動画からも明らかでしょう。 実際に示した性能があまりにも高すぎて、逆に具体的で定量的な性能が問題にされていない感すらあります。 余談ですが、グーグルの開発したマルチモーダルモデル「Gemini」もGPT-4oと同じく言語、画像、動画、音声の処理能力を持っており、去年の12月に発表された直後には、人間とGeminiがリアルタイムでやり取りをしながらさまざまなタスクをこなすデモ動画が公開されました。 しかし、このデモ動画は実はリアルタイムでのやり取りではなく、複数の独立したやり取りを編集して、あたかもリアルタイムのように見せかけているということが明らかにな
2024年5月に入ってすぐ、AI研究者の間ではOpenAIにまつわる複数の噂が流れていました。いわく「OpenAIが近日中に生成AIを使った検索サービスをするらしい」、「OpenAIが新型のGPTを発表するらしい」などといったものです。 それに先立ち、4月の後半からは、生成AIの性能を比較するサイトで、正体不明のモデル「gpt2-chatbot」なるものが出現し、制作者が不明である中、当時最高の性能を誇っていたGPT-4を上回る性能を見せつけていました(もちろんOpenAIはすでに「GPT-2」を数年前に発表済みです)。では今更このような名前をつけて暴れ回っているこれは何なのか。OpenAI製なのか、それとも別の機関が開発したのか。 この話は後々答えがわかるのですが、このようにAI研究者たちが落ち着かず、あれこれと噂してOpenAIの動向に注意している中、OpenAIは日本時間の5月11日
小林 優多郎 [Tech Insider 編集チーフ] May. 14, 2024, 08:30 AM テックニュース 20,741 OpenAIは5月13日(現地時間)、新しい対話型生成AIサービス「GPT-4o」を発表した。 GPT-4oは有料版「ChatGPT Plus」や「ChatGPT Team」のユーザー向けに展開を開始しており、今後エンタープライズ向けにも提供予定。 無料版ChatGPTユーザーに対しても、1日で利用できるメッセージの数に制限をつけつつも展開する(OpenAIによるとPlusユーザーのメッセージ送信可能数は無料版の5倍でTeamsやエンタープライズ版はそれ以上)。 GPT-4oとは何なのか。また、そのGPT-4oの上で走らせたOpenAIの驚きのデモの様子を振り返りつつ解説しよう。
OpenAI公式のChatGPT for MacアプリはElectronやCatalystなどを利用せず、macOSネイティブアプリとして開発されているそうです。詳細は以下から。 OpenAIは現地時間2024年05月13日、スマートフォンのカメラやマイクを通し状況を把握、反応速度を向上させ、より人間らしい対話が可能になった最新のAIモデル「GPT-4o」を発表しましたが、同時に現在iPhoneとAndroid向けにリリースされているモバイルアプリだけではなく、 今後、MacとWindowsに対応したデスクトップアプリのリリースされることが発表され、本日よりChatGPT Plusユーザーに対し、ChatGPT for Macアプリのロールアウトが開始されていますが、このChatGPT for MacアプリはmacOSネイティブアプリとなっているそうです。 ChatGPT for Mac
OpenAIが日本時間の2024年5月14日(火)にAIモデル「GPT-4o」を発表しました。GPT-4oは単一のモデルでテキスト、音声、視覚入力を非常に高速に処理可能で、リアルタイムに会話しながら「計算問題を解く」「画像の生成」「周囲の映像から状況を判断」といったタスクを実行可能です。 Hello GPT-4o | OpenAI https://openai.com/index/hello-gpt-4o/ Introducing GPT-4o and more tools to ChatGPT free users | OpenAI https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/ GPT-4oはテキスト、音声、視覚入力を高速処理できるマルチモーダルなAIモデルです。GPT-4oの応答時間は平均320ミリ秒で、
2023年11月にあった那覇市長定例記者会見。沖縄の言葉で「はいさい ぐすーよー。ちゅーうがなびら(こんにちは皆さん。ご機嫌いかがでしょうか)」から始まった会見は、市の業務での生成AI本格導入に向けて「那覇市生成AI活用方針」を策定したというコメントを読み上げていた。「いっぺー にふぇーでーびる(ありがとうございました)」と締めたところで、知念覚市長がこう付け加えた。 「なお、このコメントもですね、生成AIによって下書きを作成し、職員が校正を行って作っております」 沖縄県内ではいち早く生成AI活用を導入した那覇市。同市DX推進室の長嶺伶生さんは「たたき台を手直しするだけで作れるので負担は少なくなっています」とそのメリットを挙げる。 住民の個人情報などデリケートな情報も多く扱う行政の現場。その利用にあたっては慎重に活用方針とガイドラインを作成し、日々の業務活用につなげている。行政が生成AIな
以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5
5月13日(日本時間5月14日未明)にOpenAIが発表したGPT-4oの紹介ビデオ「Introducing GPT-4o」の文字起こしとその日本語訳です。 〇 日本語訳 [拍手] MIRA MURATI: みなさん、こんにちは。ありがとうございます。今日はここにいてくれてうれしいです。今日は3つのことについて話します。それだけです。まず、製品を真に利用可能かつ広く利用可能にすることがなぜ私たちにとって重要なのかについてお話しします。そして、摩擦を減らす方法を常に探しています。どこにいてもChatGPTを使えるようにするためです。今日はChatGPTのデスクトップ版をリリースし、使いやすく、より自然にするための改善を行います。 しかし、今日の大ニュースは、新しいフラッグシップモデルを発表することです。これをGPT-4oと呼んでいます。GPT-4oの一番の特徴は、無料ユーザーを含むすべての人
日本時間2024年5月14日未明、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました。このモデルは、音声、視覚、テキストのリアルタイム処理を可能とし、従来のAIモデルを大きく上回る性能を誇ります。OpenAIのCTOであるミラ・ムクティ氏は、「GPT-4oは、人間とマシンのインタラクションの未来を大きく変える一歩です。このモデルにより、コラボレーションがはるかに自然で簡単になります」と述べました。 「GPT-4o」の主な特徴を以下にまとめました。 他のモデルを凌駕する性能 GPT-4oは、OpenAIの以前のモデルであるGPT-4 Turboや、ライバル会社のClaude 3 Opusなどの大規模言語モデルと比較して、頭ひとつ抜けた性能向上を実現しました。サム・アルトマンCEOは、今年4月に "Chatbot Arena" でgpt2というコードネームでテストされていた
米OpenAIは5月13日(米国時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。テキストはもちろん、音声や画像、映像での入力、音声での応答に対応し、アプリ版の「ChatGPT」ではユーザーと自然に対話できるようになった。開発者向けにAPIとして提供する他、同日からChatGPT内で利用できるように展開を始める。 GPT-4oは無料ユーザーでも利用可能になる。ChatGPTでは従来、無料ユーザーが使えるモデルは「GPT-3.5」までで、「GPT-4」を利用するには課金する必要があった。ただし、有料のChatGPT Plusユーザーは時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和される。企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されるとしている。 同社は発表会のライブデモで、GPT-4oを搭載したiOS版ChatGPTと対話す
GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, image, and video and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversat
ChatGPTおよびOpenAI APIのモデル仕様が2024年5月8日(水)に公開されました。モデル仕様にはChatGPTおよびOpenAI APIの「望ましい動作」と「望ましくない動作」が記されており、OpenAIがどのような意図でChatGPTの応答を調整しているのかが分かるようになっています。 Model Spec (2024/05/08) https://cdn.openai.com/spec/model-spec-2024-05-08.html Introducing the Model Spec | OpenAI https://openai.com/index/introducing-the-model-spec/ ChatGPTを使っていると、「その質問には応答できません」といったように質問への返答を拒否されることがあります。新たに公開されたモデル仕様には質問の種類に応じ
ChatGPTの開発元である「OpenAI」が、大手経済紙「Financial Times」との戦略的パートナーシップ締結を発表しました。このパートナーシップによって、ChatGPTのユーザーはFinancial Timesに掲載された情報をチャット内で閲覧できるようになります。 Financial Times announces strategic partnership with OpenAI https://aboutus.ft.com/press_release/openai We’re bringing the Financial Times’ world-class journalism to ChatGPT https://openai.com/blog/content-partnership-with-financial-times The Financial Times
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く