当地时间周三,AMD举行“Advancing AI”发布会,除了如期发布诸如Instinct MI300X、MI300A、锐龙8040系列处理器等外,大量AI产业的龙头公司也来到现场,为“英伟达挑战者”站台助威。
在开场发言中,苏姿丰博士就甩出了一组令股民们极为兴奋的数据:一年前AMD曾预期,数据中心加速器的市场规模,大概能从2023年的300亿美元倍增至2027年的1500亿美元。而到了今天,AMD将2027年的市场规模预期猛然上修至4000亿美元,对应70%的年化复合增长率。
接下来就是介绍硬件的部分了。
首先登场的是Instinct MI300X加速器,由于MI300系列芯片的参数半年前就已经公布过,所以今天的发布会更多聚焦于整套系统在实际应用中的表现。
Instinct MI300X加速器由8个MI300X组成,能够提供高达1.5TB的HBM3内存容量。与Instinct MI250X相比,MI300X系统计算单元多出了接近40%,还有1.5倍的内存容量,以及1.7倍的峰值理论内存带宽。同时新系统也支持FP8、稀疏性等更多的数学格式。
当然,更重要的是与英伟达的对比。AMD表示,与H100 HGX相比,Instinct MI300X加速器在运行大语言模型推理时的吞吐量和时延表现要明显高出一截,在各项AI和HPC项目中也明显要高出一头。
苏姿丰也在周三宣布,Instinct MI300X加速器已经从今天开始发货,与此同时,Instinct MI300A加速器也已经进入了量产阶段。
Instinct MI300A是世界首款专为HPC和AI设计的APU,使用的HBM3内存规格为128GB。与Instinct MI250X相比,MI300A的性能功耗比能接近翻番。
正如开头所提,今天的发布会也有众多友商前来捧场,当然也都不是空手而来的。
微软CTO凯文·斯科特在现场宣布,从今天开始,Azure云将开放Instinct MI300X虚拟机的预览。OpenAI也宣布,该公司开发的GPU编程语言Triton,将从接下来的3.0版本开始支持MI300等AMD芯片。Meta、甲骨文的高管当场表示,将在自己的AI和数据中心服务中使用Instinct MI300X加速器。
值得一提的是,除了硬件规格的提升,AMD也在周三宣布了最新版本的ROCm 6开源软件平台。公司介绍称,ROCm 6在提升AI加速性能方面取得了显著进步,特别是在MI300系列加速器上运行Llama 2文本生成任务时,其AI加速性能比前一代硬件和软件提高了大约8倍。
AI PC也有新产品
除了数据中心级别的芯片外,AMD也在周三发布了锐龙8040系列移动处理器。AMD介绍称,与上一代同样搭载锐龙AI NPU的7040相比,8040系列在AI任务展现了进一步的提升。
AMD介绍称,整个系列总共有9款芯片,预计搭载该系列的电脑将从2024年一季度开始发售。
当然作为这两年苹果、AMD的保留节目,在与英特尔的旗舰移动处理器i9-13900H的对比中,AMD的8945HS在多项指标的比较中出现大幅领先的情况。
值得一提的是,虽然发布会本身符合预期,但对AMD的股价并未构成提振作用。在周三科技股集体走弱的背景下,AMD发布会还没开完,股价就由涨转跌,最终收跌超1%。