エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
OpenAI、フラグシップモデル「GPT-4o」を発表。人間並みのスピードで音声入力情報に反応できる
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
OpenAI、フラグシップモデル「GPT-4o」を発表。人間並みのスピードで音声入力情報に反応できる
OpenAI、フラグシップモデル「GPT-4o」を発表。人間並みのスピードで音声入力情報に反応できる 末にある... OpenAI、フラグシップモデル「GPT-4o」を発表。人間並みのスピードで音声入力情報に反応できる 末にある「o」は「Omni」の頭文字。音声・視覚・テキストをすべてリアルタイムで処理 GPT-4oは音声、視覚、テキストの各種入力情報に対応しており、それぞれの形で出力できる。音声入力は232ミリ秒で、平均で320ミリ秒で反応できる。これは人間が会話における反応速度と同程度。英語とコードのパフォーマンスはGPT-4 Turboと同等で、英語以外の言語も高速化を実現している。 GPT-4oは順次展開される予定。テキストと画像の機能は本日よりすべてのユーザーに提供される。音声モードのアルファ版は今後数週間以内にChatGPT Plusユーザー向けに提供する。 Say hello to GPT-4o, our new flagship model which can reason across