- +1
Nvidia最強(qiáng)H100 GPU系統(tǒng)和服務(wù)將于10月推出
Nvidia今天在線舉行的GTC 2022大會(huì)上宣布,首批基于下一代圖形處理單元Nvidia H100 Tensor Core GPU的產(chǎn)品和服務(wù)將于下個(gè)月推出。

Nvidia H100 Tensor Core是Nvidia目前為止最強(qiáng)大的GPU,現(xiàn)在已經(jīng)全面投產(chǎn),基于新的Hopper架構(gòu),包含有800多億個(gè)晶體管,此外還具有Transformer Engine和擴(kuò)展性更高的NVLink互連等新功能,使其能夠支持更大型的人工智能模型、推薦系統(tǒng)和其他類型的工作負(fù)載。
Nvidia在今年4月首次發(fā)布該芯片的時(shí)候曾表示,這款芯片非常強(qiáng)大,理論上只需要20個(gè)這種芯片就可以承載全球所有互聯(lián)網(wǎng)流量,這使得它成為最先進(jìn)AI應(yīng)用的理想選擇,包括執(zhí)行對(duì)數(shù)據(jù)的實(shí)時(shí)推理。
這款H100 GPU是第一個(gè)支持PCIe Gen5的GPU,此外還采用了HBM3,也就是說(shuō)芯片可支持超過(guò)3 TB的內(nèi)存帶寬。不過(guò),很多企業(yè)可能對(duì)Transformer Engine也很感興趣。據(jù)說(shuō)該技術(shù)能夠?qū)⒒赥ransformer的自然語(yǔ)言處理模型加速到上一代A100 GPU的6倍之多。
此外,這款H100 GPU采用第二代安全多實(shí)例GPU技術(shù),可以將芯片劃分為7個(gè)更小的、完全隔離的實(shí)例,以同時(shí)處理多個(gè)工作負(fù)載。其他功能還包括支持機(jī)密計(jì)算,這意味著可以在處理數(shù)據(jù)時(shí)對(duì)數(shù)據(jù)進(jìn)行加密,以及支持加速動(dòng)態(tài)編程的新DPX指令。
這項(xiàng)技術(shù)常用于很多優(yōu)化、數(shù)據(jù)處理和組學(xué)算法中。Nvidia承諾,這款H100 GPU的速度要比目前最先進(jìn)的CPU快40倍。
Nvidia創(chuàng)始人、首席執(zhí)行官黃仁勛在GTC大會(huì)上表示,他把Hopper視為“AI工廠的新引擎”,它將推動(dòng)基于語(yǔ)言的人工智能、機(jī)器人技術(shù)、醫(yī)療和生命科學(xué)領(lǐng)域的重大進(jìn)步。他表示:“Hopper的Transformer Engine將性能提升了一個(gè)數(shù)量級(jí),讓企業(yè)和研究人員能夠接觸到大規(guī)模的人工智能和高性能計(jì)算。”
一個(gè)有趣的細(xì)節(jié)是,所有由Nvidia H100驅(qū)動(dòng)的新主流服務(wù)器都將以5年許可的方式售賣Nvidia AI Enterprise,這個(gè)軟件套件主要用于優(yōu)化AI模型的開(kāi)發(fā)和部署,并提供AI框架和工具用于構(gòu)建AI聊天機(jī)器人、推薦工程師、視覺(jué)AI等。
Nvidia 表示,這款H100 GPU將通過(guò)10月Nvidia LaunchPad服務(wù)在戴爾最新PowerEdge服務(wù)器上廣泛提供給客戶,這項(xiàng)服務(wù)為企業(yè)提供了免費(fèi)的動(dòng)手實(shí)驗(yàn)室以開(kāi)始使用該硬件。或者,客戶也可以訂購(gòu)新的Nvidia DGX H100系統(tǒng),該系統(tǒng)配備8個(gè)H100 GPU,并在FP8精度上提供32 petaflops的性能。
每個(gè)DGX系統(tǒng)都由Nvidia Base Command和AI Enterprise軟件堆棧提供支持,從單個(gè)節(jié)點(diǎn)到整個(gè)Nvidia DGX SuperPOD的部署,用于更高級(jí)的AI工作負(fù)載,例如大型語(yǔ)言模型等。
此外,這款H100 GPU將被部署在戴爾、Atos、思科、富士通、技嘉、HPE等廠商售賣的各種第三方服務(wù)器系統(tǒng)中,未來(lái)幾周還有聯(lián)想和超微的系統(tǒng)陸續(xù)推出。
一些全球領(lǐng)先的高等教育和研究機(jī)構(gòu)也將使用這款Nvidia H100芯片為他們先進(jìn)的超級(jí)計(jì)算機(jī)提供動(dòng)力,其中包括巴塞羅那超級(jí)計(jì)算中心、洛斯阿拉莫斯國(guó)家實(shí)驗(yàn)室、瑞士國(guó)家超級(jí)計(jì)算中心、德克薩斯高級(jí)計(jì)算中心和筑波大學(xué)。
緊隨其后的是公有云巨頭,Nvidia表示,AWS、Google Cloud、微軟Azure和Oracle Cloud Infrastructure服務(wù)將在明年初率先部署基于H100的實(shí)例。
微軟Azure AI Infrastructure總經(jīng)理Nidhi Chappell表示:“我們期待在微軟Azure上的H100 GPU上啟用下一代AI模型,隨著Hopper架構(gòu)取得進(jìn)展以及我們對(duì)Azure AI超級(jí)計(jì)算的投入,我們將能夠幫助加入全球人工智能的發(fā)展。”
Constellation Research分析師Holger Mueller表示,今天這則公告向我們展示了Nvidia希望通過(guò)Hopper架構(gòu)成為所有企業(yè)的AI運(yùn)營(yíng)平臺(tái)這一愿望。Mueller說(shuō):“Hopper不僅可以在所有領(lǐng)先的云平臺(tái)上使用,還可以在本地平臺(tái)上使用,這讓企業(yè)可以選擇在幾乎任何地方部署AI驅(qū)動(dòng)的下一代應(yīng)用??紤]到Nvidia芯片具有的強(qiáng)大功能,這將成為一個(gè)非常引人注目的產(chǎn)品,因?yàn)樵谖磥?lái)十年,企業(yè)工作負(fù)載的運(yùn)行位置將存在著很大的不確定性。”
最后,Nvidia表示,很多世界領(lǐng)先的大型AI模型和深度學(xué)習(xí)框架目前正在針對(duì)H100 GPU進(jìn)行優(yōu)化,包括Nvidia自己的NeMo Megatron框架,以及微軟DeepSpeed、谷歌JAX、PyTorch、TensorFlow和XLA。
本文為澎湃號(hào)作者或機(jī)構(gòu)在澎湃新聞上傳并發(fā)布,僅代表該作者或機(jī)構(gòu)觀點(diǎn),不代表澎湃新聞的觀點(diǎn)或立場(chǎng),澎湃新聞僅提供信息發(fā)布平臺(tái)。申請(qǐng)澎湃號(hào)請(qǐng)用電腦訪問(wèn)http://renzheng.thepaper.cn。





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司