站长之家(ChinaZ.com) 1月31日消息:据英伟达网站发布的博客文章,DeepSeek R1 671b 已作为英伟达的 NIM 微服务预览版本在 build.nvidia.com 上发布。
据博客文章介绍,DeepSeek-R1 是一款拥有最先进推理能力的开放模型。与传统模型直接给出答案不同,像 DeepSeek-R1 这样的推理模型会对查询进行多轮推理处理,通过链式思考、共识方法和搜索策略生成最佳答案。
这一系列推理过程——即利用推理得出最佳答案——被称为「推理时扩展」(test-time scaling)。DeepSeek-R1 是这一扩展法则的完美示例,展示了为何加速计算对于代理 AI 推理的需求至关重要。
当模型允许逐步「思考」问题时,它们会生成更多的输出 token 和更长的生成周期,因此模型质量持续提升。显著的推理时计算对实现实时推理和高质量响应至关重要,推理模型如 DeepSeek-R1 需要更大的推理部署来支持这一过程。
R1 在需要逻辑推理、思维推导、数学计算、编程和语言理解等任务中,提供了领先的准确性,同时具备高效的推理能力。
为了帮助开发者安全地测试这些功能并构建专用智能体,拥有 6710 亿参数的 DeepSeek-R1 模型现已作为 NVIDIA NIM 微服务预览版在 build.nvidia.com 上发布。DeepSeek-R1 NIM 微服务能够在单个 NVIDIA HGX H200 系统上每秒处理最多 3,872 个 token。
开发者可以测试并实验即将推出的应用程序接口(API),该接口预计将很快作为可下载的 NIM 微服务发布,成为 NVIDIA AI 企业软件平台的一部分。
DeepSeek-R1 NIM 微服务简化了部署,支持行业标准的 API。企业可通过在其首选加速计算基础设施上运行 NIM 微服务,最大程度保障安全性和数据隐私。使用 NVIDIA AI Foundry 和 NVIDIA NeMo 软件,企业还可以为特定的 AI 智能体创建定制化的 DeepSeek-R1 NIM 微服务。