技術(shù)
導(dǎo)讀:黑芝麻智能宣布推出其專為下一代 AI 模型設(shè)計(jì)的高算力芯片平臺(tái) ——華山 A2000 家族。
12 月 30 日消息,黑芝麻智能宣布推出其專為下一代 AI 模型設(shè)計(jì)的高算力芯片平臺(tái) ——華山 A2000 家族。
華山 A2000 家族包括 A2000 Lite、A2000 和 A2000 Pro 三款產(chǎn)品,分別針對(duì)不同等級(jí)的自動(dòng)駕駛需求:
A2000 Lite 專注于城市智駕
A2000 支持全場(chǎng)景通識(shí)智駕
A2000 Pro 為高階全場(chǎng)景通識(shí)智駕設(shè)計(jì)
A2000 家族的芯片集成了 CPU、DSP、GPU、NPU、MCU、ISP 和 CV 等多功能單元,實(shí)現(xiàn)了高度集成化和單芯片多任務(wù)處理的能力;新一代 ISP 技術(shù),具備 4 幀曝光和 150dB HDR,在隧道和夜間等場(chǎng)景下表現(xiàn)更好,提升了圖像處理能力。
此外,A2000 家族單芯片數(shù)據(jù)閉環(huán)的設(shè)計(jì),使得數(shù)據(jù)在智駕功能正常運(yùn)行的同時(shí)能夠?qū)崿F(xiàn)全車數(shù)據(jù)的脫敏、壓縮、編碼和存儲(chǔ)。
A2000 家族算力最大是“當(dāng)前主流旗艦芯片的 4 倍”,原生支持 Transformer 模型。A2000 家族的靈活擴(kuò)展性,允許多芯片算力的擴(kuò)展,以適應(yīng)不同級(jí)別的自動(dòng)駕駛需求,產(chǎn)品組合全面覆蓋從 NOA 到 Robotaxi 應(yīng)用場(chǎng)景。
此外,華山 A2000 家族芯片不僅能用于智能汽車領(lǐng)域,還能夠支持機(jī)器人和通用計(jì)算等多個(gè)領(lǐng)域。值得一提的是,A2000 芯片能夠滿足機(jī)器人的“大小腦”需求,推動(dòng)機(jī)器人產(chǎn)業(yè)從原型開發(fā)階段邁向大規(guī)模量產(chǎn)。
IT之家從公告獲悉,黑芝麻智能推出了自研 NPU 新架構(gòu) ——黑芝麻智能“九韶”,九韶是黑芝麻智能為滿足自動(dòng)駕駛技術(shù)需求而推出的 AI 芯片的計(jì)算核心,支持新一代通用 AI 工具鏈 BaRT 和新一代雙芯?;ヂ?lián)技術(shù) BLink。
九韶 NPU 采用了大核架構(gòu),支持智駕大模型的實(shí)時(shí)推理,支持包括 INT8 / FP8 / FP16 在內(nèi)的混合精度,集成了針對(duì)高精度精細(xì)量化和 Transformer 的硬加速,能夠簡(jiǎn)化開發(fā)者在量化和部署過程中的工作。
此外,九韶 NPU 還具備低延時(shí)和高吞吐的三層內(nèi)存架構(gòu),包括大容量高帶寬的 NPU 專用緩存、核心模塊片內(nèi)共享緩存,以及對(duì)稱的雙數(shù)據(jù)通路和專用 DMA 引擎。提升了性能和有效帶寬,降低了對(duì)外部存儲(chǔ)帶寬的依賴。
為了發(fā)揮九韶 NPU 的潛力,黑芝麻智能研發(fā)了新一代通用 AI 工具鏈 BaRT。BaRT 支持多種流行框架和模型的轉(zhuǎn)換,原生兼容 PyTorch 的推理 API,支持 Python 編程部署。這使得開發(fā)者能夠更加便捷地利用九韶架構(gòu)進(jìn)行 AI 模型的開發(fā)和部署。
BaRT 的另一個(gè)優(yōu)勢(shì)是支持業(yè)界主流的 Triton 自定義算子編程,允許開發(fā)者使用 Python 語言編寫 Triton 自定義算子,這些算子可以被自動(dòng)化編譯成硬件加速代碼,從而進(jìn)一步加速開發(fā)者 AI 模型的部署。
為了滿足不同等級(jí)自動(dòng)駕駛的算力需求,新一代雙芯?;ヂ?lián)技術(shù) BLink支持 Cache 一致性互聯(lián)的高效 C2C(Chip-to-Chip)技術(shù),能夠擴(kuò)展支持更大規(guī)模模型的算力需求,為算法長(zhǎng)期演進(jìn)做好準(zhǔn)備。
通過 BLink 技術(shù),A2000 家族芯片能夠?qū)崿F(xiàn)軟件單 OS 跨片部署,支持高帶寬 C2C 一致性連接,滿足 NUMA 跨芯片訪存要求,簡(jiǎn)化軟件開發(fā)和部署的難度。