Mesh LLMは、複数のコンピューターの余剰GPU計算資源を持ち寄り、1台では動かしにくい大規模言語モデルを分散実行できるようにする仕組みです。OpenAI互換APIを備えており、既存のAIツールやエージェントからそのまま使いやすい点が特徴です。 mesh-llm — Decentralised LLM Inference https://docs.anarchai.org/ michaelneale/mesh-llm: reference impl with llama.cpp compiled to distributed inference across machines, with real end to end demo https://github.com/michaelneale/mesh-llm Mesh LLMは余剰GPUを束ねて大きなモデルを動かすための分散推論基盤で

