導(dǎo)讀:據(jù)日本經(jīng)濟(jì)新聞報(bào)道,英偉達(dá)的尖端圖像處理半導(dǎo)體(GPU)H200 現(xiàn)已開始供貨。H200 為面向 AI 領(lǐng)域的半導(dǎo)體,性能超過當(dāng)前主打的 H100。
3 月 28 日消息,據(jù)日本經(jīng)濟(jì)新聞報(bào)道,英偉達(dá)的尖端圖像處理半導(dǎo)體(GPU)H200 現(xiàn)已開始供貨。H200 為面向 AI 領(lǐng)域的半導(dǎo)體,性能超過當(dāng)前主打的 H100。
根據(jù)英偉達(dá)方面公布的性能評測結(jié)果,以 Meta 公司旗下大語言模型 Llama 2 處理速度為例,H200 相比于 H100,生成式 AI 導(dǎo)出答案的處理速度最高提高了 45%。
市場調(diào)研機(jī)構(gòu) Omdia 曾表示,2022 年英偉達(dá)在 AI 半導(dǎo)體市場約占 8 成的份額,與此同時(shí) AMD 等競爭對手也在開發(fā)對抗英偉達(dá)的產(chǎn)品,競爭愈演愈烈。
英偉達(dá)當(dāng)?shù)貢r(shí)間 3 月 18 日在開發(fā)者大會上宣布,年內(nèi)將推出新一代 AI 半導(dǎo)體“B200”,B200 和 CPU(中央運(yùn)算處理裝置)組合的新產(chǎn)品用于最新的 LLM 上。“最強(qiáng) AI 加速卡”GB200 包含了兩個(gè) B200 Blackwell GPU 和一個(gè)基于 Arm 的 Grace CPU,推理大語言模型性能比 H100 提升 30倍,成本和能耗降至 25 分之一。
GB200 采用新一代 AI 圖形處理器架構(gòu)Blackwell,黃仁勛在 GTC 大會上表示:“Hopper 固然已經(jīng)非常出色了,但我們需要更強(qiáng)大的 GPU”。
據(jù)IT之家此前報(bào)道,英偉達(dá) H200 于去年 11 月發(fā)布,其為基于英偉達(dá)的“Hopper”架構(gòu)的 HGX H200 GPU,是 H100 GPU 的繼任者,也是該公司第一款使用 HBM3e 內(nèi)存的芯片,這種內(nèi)存速度更快,容量更大,因此更適合大型語言模型。較前任霸主 H100,H200 的性能直接提升了 60% 到 90%。英偉達(dá)稱:“借助 HBM3e,英偉達(dá) H200 以每秒 4.8 TB 的速度提供 141GB 的內(nèi)存,與 A100 相比,容量幾乎是其兩倍,帶寬增加了 2.4 倍?!?/p>