(资料图片)
NVIDIAH100GPU自推出以来一直是最耗电的数据中心芯片,额定功耗高达700W。但这随着InstinctMI300X的出现而改变,它会消耗更多功率。
在AMDInstinctMI300X演示的脚注中,据说OAMGPU加速器消耗750W的功率。相比之下,基于CDNA2GPU架构的InstinctMI250XGPU的功耗在500到560瓦之间。因此,功率需求在单代产品中增加了34-50%。同时,考虑到芯片本身的设计及其提供的性能,这种功率增加是意料之中的。该芯片可将AI工作负载的性能提升8倍,同时效率提高5倍。
AMDInstinctMI300XGPU预计将配备304个CDNA3计算单元,而MI250X则配备220个计算单元。增加了38%。此外,该芯片包含192GB容量的HBM3内存。这比MI250X使用的128GBHBM2e内存多50%,而且由于我们正在谈论HBM3,我们还将看到更快的传输速度。
InstinctMI300XGPU及其巨大的192GBVRAM的一大优势是它可以在比竞争对手更少的GPU上运行大型语言模型。InstinctMI300X可以运行多达5400亿个参数的LLM,其GPU数量少于竞争对手的80GBH100芯片。
随着GPU和HPC加速器变得越来越强大,这些功率要求不断上升。最近的技嘉服务器路线图展示了CPU、GPU和APU如何接近1000W功率壁垒。AMD无疑拥有最耗电的芯片,但红队还投资了一系列小芯片和封装技术,使他们能够显着降低功耗需求。
在ISSCC2023会议期间,AMD首席执行官LisaSu博士表示,如果不采用新设计,Zettascale计算将需要一个核反应堆来满足其能源需求,而这只是一个系统。话虽如此,MI300XGPU也将以功率要求较低的保守变体形式提供,尤其是在PCIe外形尺寸中。这些尚未公布,但预计将在2024年到达。
关键词: