Googleの研究者が、大規模言語モデル(LLM)に無限の長さのテキストを処理させる手法だという「Infini-attention」に関する論文を発表しました。 [2404.07143] Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention https://arxiv.org/abs/2404.07143 Google’s new technique gives LLMs infinite context | VentureBeat https://venturebeat.com/ai/googles-new-technique-gives-llms-infinite-context/ Google Demonstrates Method to Scale Languag
![GoogleがAIに無限の長さのテキストを処理できる能力を与える技術を発表](https://cdn-ak-scissors.b.st-hatena.com/image/square/7392667666c1ab383f6619b51d1fc97da5eedaf2/height=288;version=1;width=512/https%3A%2F%2Fi.gzn.jp%2Fimg%2F2024%2F04%2F15%2Fgoogle-llm-infini-attention%2F00_m.jpg)