發布成功
贊賞金額:
支付金額:5元
支付方式:
贊賞成功!
你的贊賞是對作者最大的肯定~?
近日,芯片巨頭AMD在美國舊金山舉行的 “數據中心與人工智能技術發布會”,正式發布了新一代的面向AI及HPC領域的GPU產品——Instinct MI 300系列。
資料顯示,MI300X則是目前全球最強的生成式AI加速器,集成了高達1530億個晶體管,并支持高達 192 GB 的 HBM3內存,多項規格超越了英偉達(NVIDIA)最新發布的H100芯片,為當下受困于英偉達壟斷且供應緊張的生成式AI芯片市場帶來了新的選擇。
據悉,Meta、亞馬遜等大廠也作為其客戶代表出席了本次活動。業界也紛紛看好MI 300系列芯片有望挑戰英偉達目前在AI市場的霸主地位。
與此同時,AMD還推出了面向數據中心的第四代的Epyc產品:MI300A,1460億個晶體管,集成13 個5nm的小芯片。
AMD CEO蘇姿豐表示,生成式AI和大語言模型(LLM)需要電腦的算力和內存大幅提高。預計今年,數據中心AI加速器的市場將達到300億美元左右,到2027年將超過1500億美元,復合年增長率超過50%。這意味著未來四年的CAGR將會超過50%。
正是基于AI加速器市場的龐大需求和高速增長趨勢,AMD順勢推出了 Instinct MI300系列,此次發布的包括MI300A和MI300X。
從設計上來看,作為將大型片采用Chiplet設計的先行者,AMD MI300A同樣也是采用了Chiplet設計,其內部擁有多達13個小芯片,均基于臺積電5nm或6nm制程工藝(CPU/GPU計算核心為5nm,HBM內存和I/O等為6nm),其中許多是 3D 堆疊的,以便創建一個面積可控的單芯片封裝,總共集成1460 億個晶體管。
總的來說,MI300A與上一代的MI250X一脈相承,采用新一代的CDNA 3 GPU架構,并集成了24個Zen 4 CPU內核,配置了128GB的HBM3內存。從芯片的照片上我們可以看到,MI300A的計算核心被 8 個HBM3內存包圍,單個HBM3的帶寬為6.3GB/s,八個16GB堆棧形成128GB統一內存,帶寬高達5.2 TB/s。
蘇姿豐表示,MI300A將會將提供比前一代的MI250X(理論算力47.87TFLOPS,總功耗為500W)大約快 8 倍的 AI 性能,同時每瓦性能也將提高5倍。
Seminalysis也表示,“MI300A是迄今為止市場上最好的HPC芯片,并將持續一段時間?!盡I300A 在 72 x 75.4mm 基板上采用集成散熱器封裝的設計,適合插槽 SH5 LGA 主板,每塊板有 4 個處理器,能有效地控制開發成本。
據介紹,MI300A目前已經開始小批量出貨,并且將為今年晚些時候推出的美國新一代200億億次的El Capitan超級計算機提供動力。
芯片介紹:
君正X2000
北京君正的多核異構跨界處理器X2000屬于MPU,有一系列MPU的技術特征。X2000邊緣 AI 的價值包括:更快更緊密的交互方式,因為模型在本地執行,延遲??;更自主的服務方式,因為在沒有很好網絡的情況下仍然可以很好的提供服務;更好的保護隱私,因為在本地進行數據收集和處理,數據不必上傳。
賦能邊緣 AI是 X2000 最重要的應用定位。從 AI 視角展現了 X2000 的應用潛能的邊界,如下圖所示。X2000 作為一個邊緣 AI 平臺,其能力是綜合的:既有固化在芯片中的硬能力,如 XBurst 2 的算力、指令集、內存管理,也有北京君正團隊多年耕耘掌握自主可控的操作系統和各類物聯網應用開發支持套件,更有人工智能開放平臺MAGIK。X2000 建立在其圖像、視頻、互聯等各方面的強大的能力組合之上的 AI 能力,必將使其成為智能互聯時代不可多得的一款主控芯片。
君正X2000獨有三核XBurst架構,兼容MIPS;mW/MHz功耗低至ARM的20%;內置DDR,降低整體成本;集成豐富軟硬件,開發簡易;尺寸小至6*8mm;提供官方技術支持&完整方案。其繼承和發展了君正芯片低功耗的技術特點,芯片典型功耗<400mW,具備出色算力和微控制器的實時控制等特點,特別適用于各類消費、商業的嵌入式應用領域。如,智能商業、智能物聯網、高端智能穿戴、音視頻編解碼、生物特征和圖像識別等。
申請樣片,方案技術資料,請掃二維碼。