概要 API経由でGPT-3を利用していると、"This model's maximum context length is 4097 tokens,…"というエラーが返ってきました。 本記事では、このエラーについてまとめておきます。 本記事の目的 GPT-3のAPIを使用する際のトークン数制限について理解する。 概要 エラー概要 GPT-3のtext-davinci-003モデルは4097トークンまで 対処は、promptを短くするか、max_tokensを小さくすること 補足事項 トークンとは Tokenizerの動作確認ツール 扱えるトークン数の上限(context length) 制限値は4097か4096か4000か まとめ 参考情報、関連記事等 エラー概要 Googleスプレッドシートにて、GAS経由でGPT-3のAPIにリクエストした際、以下のエラーが返ってきました。 Thi