@kitchen3968 ZOOMでのMTGの後、後輩クンに「議事録書いといてくれる?」と頼んだら「そんなもの、最初に頼んでくれないと書けませんよ!録音もしてないし」とキレられた。意味が分からない。「最初に頼んでおかないと」MTG内容はノートを取らないし、「録音がない」と議事録は書けない。それ堂々と言えることなの?
成金親分@Rich Boss @richboss893 【頂き女子りりちゃん】 noteを読んでわかったこと。 ニュースとか、配信で「こいつあほじゃね?ばかじゃね?」って思ったやつはひっくり返るぞ。 バカっぽくみせるのも戦略でおぢたちは手のひらで転がされているわけです。 実は努力家で戦略的。 どのようなタイプが求められているかを分析し落とし込む。アップセルのやり方~人生の背景(ストーリー性の設定)が絶妙で刺さる。 といっても(騙されてるとわかっていても)求めてしまうんだな。欲には勝てねぁな。 星野ロミ 漫画村を作って捕まった人 @romi_hoshino 頂き女子マニュアルここから無料で読める archive.md/Owyye 経緯 転売ヤーがりりちゃんnoteを無断転売するが「公開前記事の共有用画面」をサンプルに誤って含める ↓ 星野ロミに気が付かれダウンロードされる 公開されてる以上悪
GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction—it accepts as input any combination of text, audio, image, and video and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversat
以下の記事が面白かったので、簡単にまとめました。 ・Hello GPT-4o 1. GPT-4o「GPT-4o」 (「omni」の「o」) は、人間とコンピュータのより自然な対話に向けた一歩です。テキスト、音声、画像のあらゆる組み合わせを入力として受け入れ、テキスト、音声、画像の出力のあらゆる組み合わせを生成します。 音声入力にはわずか232ミリ秒 (平均320ミリ秒) で応答できます。これは、人間の会話における応答時間とほぼ同じです。英語のテキストおよびコードでは「GPT-4 Turbo」のパフォーマンスに匹敵し、英語以外の言語のテキストでは大幅に改善されており、APIでははるかに高速で50%安価です。「GPT-4o」は、既存のモデルと比較して、特に視覚と音声の理解に優れています。 2. モデルの機能「GPT-4o」以前は、音声モードを使用して、平均2.8秒 (GPT-3.5) および5
米OpenAIは5月13日(米国時間)、生成AI「GPT」の新たなモデル「GPT-4o」を発表した。テキストはもちろん、音声や画像、映像での入力、音声での応答に対応し、アプリ版の「ChatGPT」ではユーザーと自然に対話できるようになった。開発者向けにAPIとして提供する他、同日からChatGPT内で利用できるように展開を始める。 GPT-4oは無料ユーザーでも利用可能になる。ChatGPTでは従来、無料ユーザーが使えるモデルは「GPT-3.5」までで、「GPT-4」を利用するには課金する必要があった。ただし、有料のChatGPT Plusユーザーは時間当たりのメッセージやり取り可能回数が無料ユーザーに比べて5倍に緩和される。企業向けのTeamやEnterpriseユーザーはさらに制限が緩和されるとしている。 同社は発表会のライブデモで、GPT-4oを搭載したiOS版ChatGPTと対話す
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く