- +1
英偉達(dá)GH200首次亮相AI性能基準(zhǔn)評(píng)測(cè),比H100性能提升17%
·英偉達(dá)GH200 Grace Hopper超級(jí)芯片首次亮相影響力最廣的國(guó)際AI性能基準(zhǔn)評(píng)測(cè)——MLPerf行業(yè)基準(zhǔn)測(cè)試。在此次測(cè)試中, GH200每芯片性能優(yōu)勢(shì)比H100 GPU高出17%。
·為提高大型語(yǔ)言模型(LLM)的推理性能,英偉達(dá)推出一款能夠優(yōu)化推理的生成式AI軟件——TensorRT-LLM,其能夠在不增加成本的情況下將現(xiàn)有H100 GPU的推理性能提升兩倍以上。
當(dāng)?shù)貢r(shí)間9月11日,推出不到兩個(gè)月的英偉達(dá)GH200 Grace Hopper超級(jí)芯片首次亮相MLPerf行業(yè)基準(zhǔn)測(cè)試。在此次測(cè)試中,具有更高的內(nèi)存帶寬和更大的內(nèi)存容量的GH200與H100 GPU相比,性能高出17%。

Grace Hopper與DGX H100 SXM在MLPerf推理數(shù)據(jù)中心性能結(jié)果的比較。來(lái)源:英偉達(dá)
在新聞發(fā)布會(huì)上,英偉達(dá)人工智能總監(jiān)戴夫·薩爾瓦托(Dave Salvator)表示:“Grace Hopper表現(xiàn)出色,首次提交的性能比H100 GPU性能高出多達(dá)17%,而我們的H100 GPU產(chǎn)品已經(jīng)在各個(gè)領(lǐng)域取得了領(lǐng)先地位。”
MLPerf是影響力廣泛的國(guó)際AI性能基準(zhǔn)評(píng)測(cè),其推理性能評(píng)測(cè)涵蓋使用廣泛的六大AI場(chǎng)景,比如計(jì)算機(jī)視覺(jué)、自然語(yǔ)言處理、推薦系統(tǒng)、語(yǔ)音識(shí)別等,每個(gè)場(chǎng)景采用最主流的AI模型作為測(cè)試任務(wù),每一任務(wù)又分為數(shù)據(jù)中心和邊緣兩類場(chǎng)景。其由MLCommons(由來(lái)自學(xué)術(shù)界、研究實(shí)驗(yàn)室和行業(yè)的人工智能領(lǐng)導(dǎo)者組成的聯(lián)盟)開(kāi)發(fā),旨在對(duì)硬件、軟件和服務(wù)的訓(xùn)練和推理性能“構(gòu)建公平和有用的基準(zhǔn)測(cè)試”。
此次MLPerf Inference v3.1基準(zhǔn)測(cè)試是繼4月發(fā)布3.0版本之后的又一次更新,值得注意的是,這次更新包含了兩個(gè)第一次:引入基于60億參數(shù)大語(yǔ)言模型GPT-J的推理基準(zhǔn)測(cè)試(AI模型的大小通常根據(jù)它有多少參數(shù)來(lái)衡量)和改進(jìn)的推薦模型。
GPT-J是來(lái)自EleutherAI的OpenAI GPT-3的開(kāi)源替代品,現(xiàn)已在MLPerf套件中用作衡量推理性能的基準(zhǔn)。與一些更先進(jìn)的人工智能模型(如1750億參數(shù)的GPT-3)相比,60億參數(shù)的GPT-J屬于相當(dāng)輕量的模型,但它非常適合推理基準(zhǔn)的角色。該模型總結(jié)了文本塊,并可在延遲敏感的在線模式和吞吐量密集型的離線模式下運(yùn)行。
GH200 Grace Hopper超級(jí)芯片在GPT-J工作負(fù)載方面取得了優(yōu)異的成績(jī),在離線和服務(wù)器場(chǎng)景中的每加速器性能都達(dá)到了最高水平。據(jù)英偉達(dá)介紹,GH200 Grace Hopper超級(jí)芯片是專為計(jì)算和內(nèi)存密集型工作負(fù)載而設(shè)計(jì),它在最苛刻的前沿工作負(fù)載上提供了更高的性能,如基于Transformer的大型語(yǔ)言模型(具有數(shù)千億或數(shù)萬(wàn)億參數(shù))、具有數(shù)萬(wàn)億字節(jié)嵌入表的推薦系統(tǒng)和矢量數(shù)據(jù)庫(kù)。

GH200 Grace Hopper 超級(jí)芯片的邏輯概述。來(lái)源:英偉達(dá)
GH200超級(jí)芯片最新版由英偉達(dá)CEO黃仁勛在8月的世界頂級(jí)計(jì)算機(jī)圖形學(xué)會(huì)議SIGGRAPH上公布。之所以稱其為超級(jí)芯片,因?yàn)樗谕粔K板上將英偉達(dá)Grace中央處理單元(CPU)和Hopper圖形處理單元(GPU)連接在一起。借助新型雙GH200服務(wù)器中的NVLink,系統(tǒng)中的CPU和GPU將通過(guò)完全一致的內(nèi)存互連進(jìn)行連接。這種組合提供了更大內(nèi)存、更快帶寬,能夠在CPU和GPU之間自動(dòng)切換計(jì)算所需要的資源,????實(shí)現(xiàn)性能最優(yōu)化。
薩爾瓦托說(shuō):“如果GPU非常忙碌,而CPU相對(duì)空閑,我們可以將功率預(yù)算轉(zhuǎn)移到GPU上,以允許它提供額外的性能。通過(guò)擁有這個(gè)功率余地,我們可以在整個(gè)工作負(fù)載中保持更好的頻率駐留,從而提供更多的性能。”

TensorRT-LLM能夠在不增加成本的情況下將現(xiàn)有H100 GPU的推理性能提升兩倍以上。來(lái)源:英偉達(dá)
此外,為提高大型語(yǔ)言模型(LLM)的推理性能,英偉達(dá)推出一款能夠優(yōu)化推理的生成式AI軟件——TensorRT-LLM,其能夠在不增加成本的情況下將現(xiàn)有H100 GPU的推理性能提升兩倍以上。重要的是,該軟件可以實(shí)現(xiàn)這種性能改進(jìn),而無(wú)需重新訓(xùn)練模型。
英偉達(dá)稱,由于時(shí)間原因,TensorRT-LLM沒(méi)有參加8月的MLPerf提交。據(jù)英偉達(dá)的內(nèi)部測(cè)試,在運(yùn)行60億參數(shù)GPT-J模型時(shí),相較于沒(méi)有使用TensorRT-LLM的上一代GPU,在H100 GPU上使用TensorRT-LLM能夠?qū)崿F(xiàn)8倍的性能提升。





- 報(bào)料熱線: 021-962866
- 報(bào)料郵箱: news@thepaper.cn
滬公網(wǎng)安備31010602000299號(hào)
互聯(lián)網(wǎng)新聞信息服務(wù)許可證:31120170006
增值電信業(yè)務(wù)經(jīng)營(yíng)許可證:滬B2-2017116
? 2014-2025 上海東方報(bào)業(yè)有限公司