MoBA(Mixture of Block Attention)是 Moonshot AI 提出的新型注意力机制,提高大型语言模型(LLMs)处理长上下文任务的效率。通过将上下文划分为多个块(block),引入无参数的 top-k 门控机制,让每个查询 token 动态选择最相关的键值(KV)块进行注意力计算。显著降低了计算复杂度,保持了与全注意力机制相当的性能。MoBA 的核心优势在于能无缝切换全注意力和稀疏注意力模式,同时遵循“少结构”原则,避免引入预定义的偏见,让模型自主决定关注点。实验表明,MoBA 在处理 100 万 token 的长文本时,速度比传统全注意力机制快 6.5 倍。MoBA 已经在 平台上得到实际验证,开源了相关代码。


全部评论
留言在赶来的路上...
发表评论