信息技術:英偉達發布AI超級計算機 智能算力浪潮洶涌


(資料圖)

自去年年底OpenAI發布ChatGPT以來,生成式人工智能逐漸確定成為新趨勢,而創建文本、圖像、視頻等內容需要通過超強算力來實現,算力已經成為AI的剛需,芯片巨頭英偉達生產的人工智能芯片在該領域至關重要。此前,英偉達在AI訓練端先后推出了V100、A100、H100三款芯片,以及為了滿足美國標準,向中國大陸銷售的A100和H100的帶寬縮減版產品A800和H800。

DGXGH200人工智能超級計算平臺是英偉達針對最高端的人工智能和高性能計算工作負載而設計的系統和參考架構,目前的DGXA100系統只能將八個A100GPU聯合起來作為一個單元,考慮到生成型人工智能的爆炸式增長,英偉達的客戶迫切需要更大、更強大的系統,DGXGH200就是為了提供最大的吞吐量和可擴展性而設計的,它通過使用英偉達的定制NVLinkSwitch芯片來避免標準集群連接選項(如InfiniBand和以太網)的限制。通過256塊超級芯片組成的DGXGH200顯然有著超越前代產品DGXA100的計算能力。而且,英偉達也正在打造基于DGXGH200的大型AI超級計算機NVIDIAHelios,其中采用4個DGXGH200系統、1024顆GraceHopper超級芯片,每個都將與英偉達Quantum-2InfiniBand網絡連接,帶寬高達400Gb/s,預計于今年年底上線。

芯片巨頭的算力迭代極其迅速,說明下游云廠商以及企業側對于生成式AI技術具備強烈需求,相關算力板塊(包括GPU、服務器、光模塊、數據中心等)有望具備較大業績彈性。

AI芯片是AI算力的根基。需求逐漸爆發,數據海量增長,大模型參數趨多,對計算性能要求愈發嚴格。GPU相較于CPU,優勢在于并行計算。在大會上,黃仁勛向傳統CPU服務器集群發起“挑戰”,直言在人工智能和加速計算這一未來方向上,GPU服務器有著更為強大的優勢。隨著需要大量計算能力的AI應用出現,GPU將成為主角,英偉達主導了當前全球AIGPU市場。舉例來說,訓練一個LLM大語言模型,將需要960個CPU組成的服務器集群,這將耗費大約1000萬美元(約合人民幣7070萬元),并消耗11千兆瓦時的電力。相比之下,同樣以1000萬美元的成本去組建GPU服務器集群,將以僅3.2千兆瓦時的電力消耗,訓練44個LLM大模型。如果同樣消耗11千兆瓦時的電量,那么GPU服務器集群能夠實現150倍的加速,訓練150個LLM大模型,且占地面積更小。而當用戶僅僅想訓練一個LLM大模型時,則只需要一個40萬美元左右,消耗0.13千兆瓦時電力的GPU服務器即可。相比CPU服務器,GPU服務器能夠以4%的成本和1.2%的電力消耗來訓練一個LLM,這將帶來巨大的成本節省。在大模型時代背景和高景氣的需求帶動下,GPU將會成為算力產業鏈中至關重要不可或缺的一環。

建議關注:

算力芯片:景嘉微、寒武紀、海光信息(電子組覆蓋)、云天勵飛等;

算力服務:中科曙光、浪潮信息、中國長城等;

邊緣算力:網宿科技、首都在線、潤澤科技(未覆蓋)、優刻得(未覆蓋)等。

推薦DIY文章
PS縮小gif動態圖片尺寸的教程
抖音哦耶咯噶并八嘎梗意思介紹_全球觀熱點
浩方對戰平臺中魔獸爭霸用地圖的方法 今亮點
環球看點!PS圖片縮小后模糊不清的解決方法
visio畫曲線的方法
天天快看:迅雷限速解除的方法
精彩新聞

超前放送