声明:本文来自于微信公众号 AIGC开放社区,作者:AIGC开放社区,授权站长之家转载发布。
今天凌晨,全球AI领导者英伟达(Nvidia)在美国圣何塞举办了“GTC2025”全球产品、开发者大会,涵盖大模型、AI Agent、实体机器人、AI专用芯片、量子计算等技术分享。
其中,英伟达在官网宣布与Oracle(甲骨文)达成技术合作,提供160多种原生AI工具和100多个微服务,帮助企业构建超复杂、无缝衔接的Agent应用,将复杂、重复的数字业务实现自动化。
还开源了一个专用于Agent的基础模型Llama Nemotron,目前,微软、埃森哲、德勤、SAP、ServiceNow正与英伟达合作,基于该模型开发商用智能体。
同时发布了一个专用于AI Agent的训练、推理AI工厂Blackwell Ultra,性能比上一代大幅度提升。
本次GTC2025大会的召开时间为5天,预计将有超过1000场产品、技术分享。但英伟达把AI Agent作为重头戏放在了第一天,并且和昨天的Zoom一样用连续多篇通稿来介绍,足以看出对智能体的重视性。
那下面「AIGC开放社区」就为大家介绍在第一天开幕式上,英伟达准备了哪些Agent大餐。
英伟达全力发展AI Agent
为了帮助企业开发更复杂、智能的Agent,英伟达是基于Llama-3.1之上开发了专属模型Llama Nemotron。
Llama Nemotron一共有Nano、Super和Ultra三种模型,每种都针对不同的部署需求进行了优化。Nano模型适用于个人电脑和边缘设备,例如,手机、平板、笔记本等;
Super模型在单个GPU上提供最佳的准确性和吞吐量;Ultra模型在多GPU服务器上提供最大的Agent准确性。
此外,英伟达在后训练阶段对这些模型进行了增强,以提升多步骤数学计算、编码、推理和复杂决策的能力,其准确性比基础模型提高了20%,并且在推理速度上比其他领先的开源推理模型优化了5倍。使得基于该模型开发的Agent能够以更高的准确率处理复杂的自动化任务,增强决策能力。
开源地址:https://huggingface.co/nvidia/Llama-3.1-Nemotron-Nano-8B-v1
https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1
英伟达官网体验:https://build.nvidia.com/models
目前,微软正把Llama Nemotron模型整合到 Azure AI Foundry中,为客户提供 Azure AI Agent Service for Microsoft365等服务。
埃森哲将在AI Refinery平台上提供Llama Nemotron模型,帮助客户开发和部署定制Agent。SAP将通过Llama Nemotron 模型增强Business AI和Joule AI两大平台,开发定制Agent。
德勤将把Llama Nemotron纳入新推出的 Zora AI 智能Agent平台。该平台支持和模拟Agent,让其拥有深度自动化功能与行业特定业务知识,能像人一样决策和行动。
同时英伟达还开源了一个专用于开发、优化、整合Agent的框架AgentIQ,集成了NVIDIA NeMo Retrieve并支持多模态信息检索,能够处理文本、图像、视频等多种类型的数据,帮助Agent结合不同类型的信息做出更全面的决策。
AgentIQ提供了丰富的工具和接口,能将不同的Agent与数据源连接起来,支持数据的实时获取和处理,确保Agent能够基于最新的信息进行推理和决策。
AgentIQ还支持构建持续学习的能力,通过与 NVIDIA NeMo 微服务的结合,帮助Agent从人类和AI生成的反馈中不断自主学习,从而优化其性能和决策能力。
开源地址:https://github.com/NVIDIA/AgentIQ
在今天,英伟达还与Oracle在Agent领域达成了深度技术合作。Oracle云平台与NVIDIA AI企业软件平台的集成,提供160多个原生AI工具和100多个NVIDIA NIM微服务,帮助企业快速搭建用于复杂自动化业务的Agent。
在部署方面,NVIDIA AI企业软件不仅支持OCI裸金属实例,可以通过OCI Kubernetes引擎在Kubernetes集群中部署。
还提供了无代码部署方案,使客户能够在无需手动配置基础设施或选择软件堆栈的情况下快速运行AI工作负载。这为NVIDIA GPU、NIM微服务和预打包的可观测性工具提供了高效方案,帮助企业将Agent从数周缩短到数分钟。
目前,Pipefy已经通过Oracle和英伟达的合作云平台,进行自动文档预处理和图像处理,显著减少了部署时间和节省了大量运行资源。
发布最强AI工厂
为了加速Agent、大模型的推理效率,英伟达发布了最新版本的NVIDIA Blackwell Ultra,这是一个专用于AI Agent、物理AI的加速平台。
Blackwell Ultra是基于一年前推出的开创性Blackwell架构构建,包括NVIDIA GB300NVL72机架级解决方案和NVIDIA HGX B300NVL16系统。
GB300NVL72的AI性能比上一代GB200NVL72高出1.5倍,并且与基于NVIDIA Hopper构建的AI工厂相比,为Blackwell的AI工厂收入机会增加了50倍。
NVIDIA GB300NVL72将72个Blackwell Ultra GPU和36个基于Arm Neoverse的NVIDIA Grace™ CPU连接在一个机架级设计中,作为一个巨大的GPU用于测试时扩展。
借助GB300NVL72,AI模型可以访问平台的增强计算能力,探索问题的不同解决方案,并将复杂请求分解为多个步骤,从而生成更高质量的响应。
Blackwell Ultra专用于AI Agent,使用复杂的推理和迭代规划自主解决复杂、多步骤的问题。Agent系统不仅遵循指令,还能推理、规划并采取行动以实现特定目标。
物理AI,帮助企业能够实时生成合成、逼真的视频,大规模训练机器人和自动驾驶汽车等应用。
Blackwell Ultra系统可以无缝集成到NVIDIA Spectrum-X™以太网和NVIDIA Quantum-X800InfiniBand平台中,通过NVIDIA ConnectX®-8SuperNIC,系统中的每个GPU都可以获得800Gb/s的数据吞吐量。这提供了业界领先的远程直接内存访问能力,使AI工厂和云数据中心能够处理AI推理模型,而不会出现瓶颈。
此外,Blackwell Ultra系统还配备了NVIDIA BlueField®-3DPUs,支持多租户网络、GPU计算弹性、加速数据访问和实时网络安全威胁检测。
从2025年下半年开始,英伟达的合作伙伴将推出基于Blackwell Ultra的产品。思科、戴尔科技、惠普企业、联想和超微等公司将提供一系列基于Blackwell Ultra产品的服务器,还有Aivres、ASRock Rack、华硕、Eviden、富士康、技嘉、英业达、广达云技术、纬创和威盛等公司。
云服务提供商亚马逊网络服务、谷歌云、微软Azure和甲骨文云基础设施以及GPU云提供商CoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta和YTL将是首批提供Blackwell Ultra的公司。
NVIDIA的创始人兼首席执行官黄仁勋表示,AI取得了巨大的飞跃,Agent需要更高的计算性能。所以,我们设计了Blackwell Ultra,它是一个多功能平台,可以轻松高效地进行预训练、后训练和推理。