- +1
Nvidia發布NeMo微服務,助力簡化AI代理開發
Nvidia 宣布其 NeMo 微服務現已全面發布,為企業提供工具,以構建能夠與業務系統集成且通過數據交互持續改進的 AI 代理。此項微服務的推出正值各組織迫切尋求能夠為重大科技投資帶來可量化回報的具體 AI 實施策略之時。
企業 AI 面臨數據整合挑戰 企業在采用 AI 技術時面臨一大關鍵挑戰:構建能夠通過不斷學習業務數據來保持準確性與實用性的系統。NeMo 微服務通過打造 Nvidia 所描述的 “數據飛輪” (data flywheel)來應對這一挑戰,使 AI 系統能夠通過持續接觸企業信息及用戶交互保持相關性。
該全新工具包包含五項核心微服務:
NeMo Customizer 負責對大語言模型進行微調,以實現更高的訓練吞吐量。
NeMo Evaluator 提供針對定制基準的簡化 AI 模型評估。
NeMo Guardrails 實施安全控制,確保合規并輸出適當的響應。
NeMo Retriever 實現跨企業系統的信息訪問。
NeMo Curator 處理與整理用于模型訓練及改進的數據。
這些組件協同工作,打造出能夠作為數字同事獨立執行任務、僅需極少人工監管的 AI 代理。與傳統的聊天機器人不同,這些代理能夠自主采取行動并基于企業數據做出決策,它們可連接現有系統,以訪問信息存儲在組織內部的最新數據。
技術架構支持持續改進 NeMo 與 Nvidia 推理微服務(命名為 NIMs)之間的區別在于其互補功能。正如 Nvidia 企業級生成式 AI 軟件部高級總監 Joey Conway 所言,“NIMs 用于推理部署——運行模型、問題輸入、答復輸出,而 NeMo 則專注于如何改進該模型:數據準備、訓練技術、評估。”當 NeMo 完成了模型的優化后,可通過 NIM 部署到生產環境中。
早期實踐已展示了顯著的商業效果。電信軟件供應商 Amdocs 利用 NeMo 微服務開發了三個專用代理;ATT 與 Arize 及 Quantiphi 合作,構建了一個每周更新近 10,000 份文檔的代理;而 Cisco 的 Outshift 部門與 Galileo 合作,創建了一款響應速度快于同類工具的編程助手。
這些微服務以 Docker 容器形式運行,并通過 Kubernetes 進行編排,從而實現可在多種計算環境中的部署。它們支持包括 Meta 的 Llama、Microsoft 的 Phi 系列、Google 的 Gemma 及 Mistral 在內的多種 AI 模型,Nvidia 自家的側重推理能力的 Llama Nemotron Ultra 亦與該系統兼容。
這一發布進入了一個競爭激烈的市場,企業在 AI 開發選擇上眾多,包括 Amazon 的 Bedrock、Microsoft 的 Azure AI Foundry、Google 的 Vertex AI、Mistral AI、Cohere 以及 Meta 的 Llama 技術棧。Nvidia 則通過與自身硬件生態系統的深度整合以及通過 AI Enterprise 軟件平臺提供的企業級支持,在眾多方案中脫穎而出。
Nvidia NeMo 與企業 AI 采納 對于技術團隊而言,這些微服務提供了降低實施復雜性的基礎設施。容器化方法使得在內部部署或云環境中都能利用企業級的安全性及穩定性特性。這種靈活性有效應對了 AI 實施過程中經常碰到的數據主權與監管合規性問題。
在評估這些工具時,組織應考慮現有 GPU 基礎設施投資、數據治理需求以及與現有系統的整合需求。對于在業務數據不斷變化中仍能保持準確性的 AI 代理的需求,將推動支持持續學習周期的平臺的廣泛應用。
這種微服務方法反映了整個行業向模塊化 AI 系統轉變的趨勢,這類系統能夠為特定業務領域量身定制,而無需重構基礎組件。對技術決策者而言,此次發布代表了企業 AI 工具向成熟邁進的又一步,有效縮小了前沿研究能力與實際業務運營之間的差距。
隨著企業從試驗階段邁向生產級 AI 系統,能夠簡化持續改進模型構建工具的重要性日益凸顯。“數據飛輪”概念體現了一種架構模式,即通過不斷接觸組織內部信息,使 AI 系統始終與業務需求保持一致。
本文為澎湃號作者或機構在澎湃新聞上傳并發布,僅代表該作者或機構觀點,不代表澎湃新聞的觀點或立場,澎湃新聞僅提供信息發布平臺。申請澎湃號請用電腦訪問http://renzheng.thepaper.cn。





- 報料熱線: 021-962866
- 報料郵箱: news@thepaper.cn
互聯網新聞信息服務許可證:31120170006
增值電信業務經營許可證:滬B2-2017116
? 2014-2025 上海東方報業有限公司