持つべきものはアメリカ在住の友達! OpenAIを抜けた人たちが作ったAnthropic社が、ChatGPTに対抗しうる強力なAIをリリースした Anthropicの最新LLMであるClaude2は、ベンチマークでGPT-3以上GPT-4未満と言われている。しかしその特徴は、10万トークンという長大なトークンを扱えると主張されていることにある。 ちなみに大規模言語モデルでトークン数を沢山扱えるという主張には注意すべきという意見もあるのでご注意。 I'm calling the Myth of Context Length: Don't get too excited by claims of 1M or even 1B context tokens. You know what, LSTMs already achieve infinite context length 25 yrs ag
![これぞ10万トークン!Anthropicの最新LLM「Claude2」を早速試す!|shi3z](https://cdn-ak-scissors.b.st-hatena.com/image/square/5ff98134a2c710e55842d44d08186e6738111a51/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F110585968%2Frectangle_large_type_2_cc537915dfdf422bf26cd12ae6d0a705.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)