Nvidia在最新的MLPerf基準測試中展示Hopper


原標題:Nvidia在最新的MLPerf基準測試中展示Hopper
在最新的MLPerf基準測試中,NVIDIA再次展示了其強大的Hopper架構的實力。以下是關于NVIDIA Hopper在MLPerf基準測試中表現(xiàn)的詳細概述:
測試結果概述:
NVIDIA的Grace Hopper超級芯片,特別是GH200型號,在MLPerf推理基準測試中取得了顯著的成績。這款超級芯片將一顆Hopper GPU和一顆Grace CPU連接到一個單一芯片中,提供了更大的內(nèi)存、更快的帶寬,并能夠在CPU和GPU之間自動切換計算資源以實現(xiàn)性能最優(yōu)化。
具體表現(xiàn):
在MLPerf的測試中,內(nèi)置8顆H100 GPU的NVIDIA HGX H100系統(tǒng),在每一項MLPerf推理測試中均實現(xiàn)了最高吞吐量。
NVIDIA的Grace Hopper超級芯片和H100 GPU在所有MLPerf數(shù)據(jù)中心測試中均處于領先地位,這涵蓋了針對計算機視覺、語音識別、醫(yī)學成像的推理,以及應用于生成式AI的推薦系統(tǒng)和大語言模型(LLM)等對性能要求更高的用例。
技術亮點:
Hopper架構通過Transformer引擎推進Tensor Core技術的發(fā)展,旨在加速AI模型訓練。Hopper Tensor Core能夠應用混合的FP8和FP16精度,以大幅加速Transformer模型的AI計算。
Hopper架構與第四代NVIDIA NVLink和NVSwitch技術相結合,使得百億億次級高性能計算和萬億參數(shù)的AI模型能夠在服務器集群中的每一個GPU之間實現(xiàn)平滑流暢的高速通信。
性能提升:
與上一代相比,Hopper架構在生成式AI訓練和推理方面實現(xiàn)了驚人的速度提升。特別是針對GPT-J 6B模型,NVIDIA的TensorRT-LLM軟件在H100 GPU上能夠實現(xiàn)高達8倍的性能提升。
生態(tài)系統(tǒng)支持:
NVIDIA AI平臺得到了業(yè)界最廣泛的機器學習生態(tài)系統(tǒng)的支持。在MLPerf測試中,有超過70項提交結果是在NVIDIA平臺上運行的,包括Microsoft Azure等云服務提供商以及華碩、戴爾科技、富士通等系統(tǒng)制造商。
綜上所述,NVIDIA的Hopper架構在最新的MLPerf基準測試中再次展現(xiàn)了其強大的性能和領先地位,進一步鞏固了NVIDIA在AI計算領域的領導地位。
責任編輯:David
【免責聲明】
1、本文內(nèi)容、數(shù)據(jù)、圖表等來源于網(wǎng)絡引用或其他公開資料,版權歸屬原作者、原發(fā)表出處。若版權所有方對本文的引用持有異議,請聯(lián)系拍明芯城(marketing@iczoom.com),本方將及時處理。
2、本文的引用僅供讀者交流學習使用,不涉及商業(yè)目的。
3、本文內(nèi)容僅代表作者觀點,拍明芯城不對內(nèi)容的準確性、可靠性或完整性提供明示或暗示的保證。讀者閱讀本文后做出的決定或行為,是基于自主意愿和獨立判斷做出的,請讀者明確相關結果。
4、如需轉載本方擁有版權的文章,請聯(lián)系拍明芯城(marketing@iczoom.com)注明“轉載原因”。未經(jīng)允許私自轉載拍明芯城將保留追究其法律責任的權利。
拍明芯城擁有對此聲明的最終解釋權。