华泰证券:大模型持续迭代有望带来大量算力基础设施需求 建议关注算力产业投资机遇

频道:最新资讯 日期: 浏览:474

华泰证券研报分析,从大模型的演化路径来看,模型体量还将进一步扩张,从而带来算力需求持续增长。长远来看,成熟大模型的运营有望带来3169亿美元的服务器增量市场,较2023年全球211亿美元的AI服务器市场而言,仍有较大成长空间。基于此,我们认为大模型持续迭代有望带来大量算力基础设施需求,建议关注算力产业投资机遇。

  全文如下

华泰 | 计算机:从大模型演进测算全球AI算力空间

我们认为,从大模型的演化路径来看,模型体量还将进一步扩张,从而带来算力需求持续增长。长远来看,成熟大模型的运营有望带来3169亿美元的服务器增量市场,较2023年全球211亿美元的AI服务器市场而言,仍有较大成长空间。基于此,我们认为大模型持续迭代有望带来大量算力基础设施需求,建议关注算力产业投资机遇。

核心观点

全球AI算力需求继续向上

随着大模型持续迭代,模型能力不断增强,其背后是“Scaling Law”下模型参数量和数据集不断增长的结果。我们认为,从大模型的演化路径来看,模型体量还将进一步扩张,从而带来算力需求持续增长。具体来看,大模型对算力的需求体现在预训练、推理、调优三个环节。根据我们的测算,以1000亿参数模型为例,三个环节的算力总需求约18万PFlop/s-day,对应需要2.8万张A100等效GPU算力。长远来看,成熟大模型的运营有望带来3169亿美元的服务器增量市场,较2023年全球211亿美元的AI服务器市场而言,仍有较大成长空间。基于此,我们认为大模型持续迭代有望带来大量算力基础设施需求,建议关注算力产业投资机遇。

模型体量越来越大,带动算力建设需求

大语言模型(LLM)是在大量数据集上预训练的模型,其在处理各种NLP任务方面显示出了较大潜力。Transformer架构的出现开启了大模型的演化之路,随着解码模块堆叠数量的不断增长,模型参数量持续增加,逐渐演化出GPT-1、GPT-2、GPT-3、PaLM、Gemini等不同版本模型,参数量也从十亿、百亿,向千亿、万亿增长。我们看到,每一代模型的演化都带来能力的增强,背后一个很重要的原因在于参数量和数据集的增长,带来模型感知能力、推理能力、记忆能力的不断提升。基于模型的缩放定律,我们认为未来模型迭代或仍将延续更大参数量的路径,演化出更加智能的多模态能力。

大模型的算力需求体现在:预训练、推理、调优

拆解来看,大模型的算力需求场景主要包括预训练、Finetune及日常运营。对于三部分的算力需求,我们的测算思路如下:1)预训练:基于“Chinchilla 缩放定律”假设,计算量可以通过公式C≈6NBS来刻画;2)推理:以ChatGPT流量为基准,计算量可以通过公式C≈2NBS来刻画;3)调优:通过调优所需的GPU核时数倒推。以1000亿参数模型的预训练/推理/调优为例,三个环节所需的算力需求分别为13889、5555.6、216 PFlop/s-day。我们认为,在缩放定律(Scaling Law)加持下,随着模型体量增长,算力需求有望持续释放。

基础设施需求有望持续释放,关注算力产业投资机遇

结合对大模型预训练/推理/调优的算力需求测算,我们预计从开发到成熟运营一个千亿模型,对A100等效GPU的需求量为2.8万张。根据我们的测算,成熟大模型的运营有望带来3169亿美元的全球AI服务器增量市场。对比来看,据IDC,2023年全球AI服务器市场规模211亿美元,预计2024-2025年CAGR将达22.7%,未来仍有较大成长空间。此外,考虑到国内对高性能芯片获取受限,AI GPU国产化也有望进一步提速。

风险提示:宏观经济波动、下游需求不及预期、测算结果可能存在偏差。

相关文章

关闭广告
关闭广告
×