サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
Google I/O
scalingintelligence.stanford.edu
Tokasaurus: An LLM Inference Engine for High-Throughput Workloads Jordan Juravsky Stanford Ayush Chakravarthy Stanford Ryan Ehrlich Stanford Sabri Eyuboglu Stanford Bradley Brown Stanford Joseph Shetaye Stanford Christopher Ré Stanford Azalia Mirhoseini Stanford TL;DR We’re releasing Tokasaurus, a new LLM inference engine optimized for throughput-intensive workloads. With small models, Tokasaurus
このページを最初にブックマークしてみませんか?
『scalingintelligence.stanford.edu』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く