摩尔线程科研团队近日发布了一项新的研究成果《RoundAttention:以轮次块稀疏性开辟多轮对话优化新范式》,使得端到端延迟低于现在主流的FlashAttention推理引擎,kv-cache显存占用节省最多82%。AI大型语言模型的进步,推动了语言模型服务在日常问题解决任务中的广泛应用。RoundAttention的端到端延迟低于现在主流的FlashAttention推理引擎,kv-cache显存占用则节省55-82%,并且在主观评测和客观评测两个数据集上,模型推理准确率基本未受影响。...
特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。(反馈错误)