今天凌晨,全球AI領導者英偉達(Nvidia)在美國圣何塞舉辦了“GTC 2025”全球產品、開發者大會,涵蓋大模型、AI Agent、實體機器人、AI專用芯片、量子計算等技術分享。
其中,英偉達在官網宣布與Oracle(甲骨文)達成技術合作,提供160多種原生AI工具和100多個微服務,幫助企業構建超復雜、無縫銜接的Agent應用,將復雜、重復的數字業務實現自動化。
還開源了一個專用于Agent的基礎模型Llama Nemotron,目前,微軟、埃森哲、德勤、SAP、ServiceNow正與英偉達合作,基于該模型開發商用智能體。
同時發布了一個專用于AI Agent的訓練、推理AI工廠Blackwell Ultra,性能比上一代大幅度提升。
本次GTC 2025大會的召開時間為5天,預計將有超過1000場產品、技術分享。但英偉達把AI Agent作為重頭戲放在了第一天,并且和昨天的Zoom一樣用連續多篇通稿來介紹,足以看出對智能體的重視性。
那下面「AIGC開放社區」就為大家介紹在第一天開幕式上,英偉達準備了哪些Agent大餐。
英偉達全力發展AI Agent
為了幫助企業開發更復雜、智能的Agent,英偉達是基于Llama-3.1之上開發了專屬模型Llama Nemotron。
Llama Nemotron一共有Nano、Super和Ultra三種模型,每種都針對不同的部署需求進行了優化。Nano模型適用于個人電腦和邊緣設備,例如,手機、平板、筆記本等;
Super模型在單個GPU上提供最佳的準確性和吞吐量;Ultra模型在多GPU服務器上提供最大的Agent準確性。
此外,英偉達在后訓練階段對這些模型進行了增強,以提升多步驟數學計算、編碼、推理和復雜決策的能力,其準確性比基礎模型提高了20%,并且在推理速度上比其他領先的開源推理模型優化了5倍。使得基于該模型開發的Agent能夠以更高的準確率處理復雜的自動化任務,增強決策能力。
開源地址:https://huggingface.co/nvidia/Llama-3.1-Nemotron-Nano-8B-v1
https://huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1
英偉達官網體驗:https://build.nvidia.com/models
目前,微軟正把Llama Nemotron模型整合到 Azure AI Foundry中,為客戶提供 Azure AI Agent Service for Microsoft 365 等服務。
埃森哲將在AI Refinery平臺上提供Llama Nemotron模型,幫助客戶開發和部署定制Agent。SAP將通過Llama Nemotron 模型增強Business AI和Joule AI兩大平臺,開發定制Agent。
德勤將把Llama Nemotron納入新推出的 Zora AI 智能Agent平臺。該平臺支持和模擬Agent,讓其擁有深度自動化功能與行業特定業務知識,能像人一樣決策和行動。
同時英偉達還開源了一個專用于開發、優化、整合Agent的框架AgentIQ,集成了NVIDIA NeMo Retrieve并支持多模態信息檢索,能夠處理文本、圖像、視頻等多種類型的數據,幫助Agent結合不同類型的信息做出更全面的決策。
AgentIQ提供了豐富的工具和接口,能將不同的Agent與數據源連接起來,支持數據的實時獲取和處理,確保Agent能夠基于最新的信息進行推理和決策。
AgentIQ還支持構建持續學習的能力,通過與 NVIDIA NeMo 微服務的結合,幫助Agent從人類和AI生成的反饋中不斷自主學習,從而優化其性能和決策能力。
開源地址:https://github.com/NVIDIA/AgentIQ
在今天,英偉達還與Oracle在Agent領域達成了深度技術合作。Oracle云平臺與NVIDIA AI企業軟件平臺的集成,提供160多個原生AI工具和100多個NVIDIA NIM微服務,幫助企業快速搭建用于復雜自動化業務的Agent。
在部署方面,NVIDIA AI企業軟件不僅支持OCI裸金屬實例,可以通過OCI Kubernetes引擎在Kubernetes集群中部署。
還提供了無代碼部署方案,使客戶能夠在無需手動配置基礎設施或選擇軟件堆棧的情況下快速運行AI工作負載。這為NVIDIA GPU、NIM微服務和預打包的可觀測性工具提供了高效方案,幫助企業將Agent從數周縮短到數分鐘。
目前,Pipefy已經通過Oracle和英偉達的合作云平臺,進行自動文檔預處理和圖像處理,顯著減少了部署時間和節省了大量運行資源。
發布最強AI工廠
為了加速Agent、大模型的推理效率,英偉達發布了最新版本的NVIDIA Blackwell Ultra,這是一個專用于AI Agent、物理AI的加速平臺。
Blackwell Ultra是基于一年前推出的開創性Blackwell架構構建,包括NVIDIA GB300 NVL72機架級解決方案和NVIDIA HGX B300 NVL16系統。
GB300 NVL72的AI性能比上一代GB200 NVL72高出1.5倍,并且與基于NVIDIA Hopper構建的AI工廠相比,為Blackwell的AI工廠收入機會增加了50倍。
NVIDIA GB300 NVL72將72個Blackwell Ultra GPU和36個基于Arm Neoverse的NVIDIA Grace? CPU連接在一個機架級設計中,作為一個巨大的GPU用于測試時擴展。
借助GB300 NVL72,AI模型可以訪問平臺的增強計算能力,探索問題的不同解決方案,并將復雜請求分解為多個步驟,從而生成更高質量的響應。
Blackwell Ultra專用于AI Agent,使用復雜的推理和迭代規劃自主解決復雜、多步驟的問題。Agent系統不僅遵循指令,還能推理、規劃并采取行動以實現特定目標。
物理AI,幫助企業能夠實時生成合成、逼真的視頻,大規模訓練機器人和自動駕駛汽車等應用。
Blackwell Ultra系統可以無縫集成到NVIDIA Spectrum-X?以太網和NVIDIA Quantum-X800InfiniBand平臺中,通過NVIDIA ConnectX?-8 SuperNIC,系統中的每個GPU都可以獲得800 Gb/s的數據吞吐量。這提供了業界領先的遠程直接內存訪問能力,使AI工廠和云數據中心能夠處理AI推理模型,而不會出現瓶頸。
此外,Blackwell Ultra系統還配備了NVIDIA BlueField?-3 DPUs,支持多租戶網絡、GPU計算彈性、加速數據訪問和實時網絡安全威脅檢測。
從2025年下半年開始,英偉達的合作伙伴將推出基于Blackwell Ultra的產品。思科、戴爾科技、惠普企業、聯想和超微等公司將提供一系列基于Blackwell Ultra產品的服務器,還有Aivres、ASRock Rack、華碩、Eviden、富士康、技嘉、英業達、廣達云技術、緯創和威盛等公司。
云服務提供商亞馬遜網絡服務、谷歌云、微軟Azure和甲骨文云基礎設施以及GPU云提供商CoreWeave、Crusoe、Lambda、Nebius、Nscale、Yotta和YTL將是首批提供Blackwell Ultra的公司。
NVIDIA的創始人兼首席執行官黃仁勛表示,AI取得了巨大的飛躍,Agent需要更高的計算性能。所以,我們設計了Blackwell Ultra,它是一個多功能平臺,可以輕松高效地進行預訓練、后訓練和推理。
本文素材來源英偉達官網,如有侵權請聯系刪除
END