要約Fastlyは、LLMのAPI応答をキャッシュすることで、コスト削減と高速化を実現する「Fastly AI Accelerator」の提供を開始した。キップ・コンプトン最高プロダクト責任者(CPO)は、類似した質問への応答を再利用し、効率的な処理を可能にすると説明した。さらに、コンプトンは、エッジコンピューティングの利点を活かしたパーソナライズや、エッジにおけるGPUの経済性、セキュリティへの取り組みなど、FastlyのAI戦略について語った。 Fastly AI Accelerator10月6日に東京・原宿で開催された同社の年次イベントFastly Yamagoya2024のため来日した、コンプトンにFastly AI Acceleratorと同社のAI展開について聞いた。 「大規模言語モデル(LLM)は『大きい』。OpenAIやGeminiを使うと都度都度費用がかかり、また、何か処
