中信建投研报指出,Meta目前正在训练下一代大语言模型Llama3并建设大型计算基础设施,包括今年(23年)年末的35万个英伟达H100GPU,预计到2024年年底,Meta人工智能算力总和达60万个英伟达H100图形处理器。此外台积电四季度业绩略超市场预期、超微电脑上调了2024年第二季度的销售额和利润指引。海外厂商相关AI指引乐观,AI算力景气度将加强,建议持续关注AI板块投资机会。
全文如下中信建投 | 智谱发布GLM-4,Meta增加算力需求,超微电脑上调业绩指引
2014年1月16日,智谱AI发布GLM-4。与上一代ChatGLM3相比性能提升接近60%,整体测评结果逼近GPT-4。智谱AI CEO张鹏称,围绕GLM预训练框架,智谱AI形成了一个相对完整的大模型全栈技术体系架构,功能覆盖多模态、代码生成、搜索增强和对话,对标OpenAI的全栈大模型生态。
Meta目前正在训练下一代大语言模型Llama3并建设大型计算基础设施,包括今年(23年)年末的35万个英伟达H100GPU,预计到2024年年底,Meta人工智能算力总和达60万个英伟达H100图形处理器。此外台积电四季度业绩略超市场预期、超微电脑上调了2024年第二季度的销售额和利润指引。海外厂商相关AI指引乐观,AI算力景气度将加强,建议持续关注AI板块投资机会。
行业变化
1.1智谱AI发布GLM-4,全面对标OpenAI生态
2014年1月16日,在2024智谱AI技术开放日Zhipu DevDay上,AI大模型独角兽智谱AI发布了新一代基座大模型GLM-4。与上一代ChatGLM3相比性能提升接近60%,在综合能力上实现了全面跃升,整体测评结果逼近GPT-4。智谱AI CEO张鹏称,围绕GLM预训练框架,智谱AI形成了一个相对完整的大模型全栈技术体系架构,功能覆盖多模态、代码生成、搜索增强和对话,对标OpenAI的全栈大模型生态。
在性能上,GLM-4能够支持更长的上下文,具备更强的多模态功能,支持更快的推理,更多并发,推理成本大大降低,同时增强了智能体(Agent)能力。
(1)基础能力:在大规模多任务语言理解评测中,GLM-4得分远超GPT-3.5,平均达到GPT-4的95%的水平,个别项目上已几乎持平;在GSM8K数学评测数据集上,GLM-4的评测结果与GPT-4有4.6%的差距;在MATH数据集上,GLM-4得分比GPT-3.5多15%,比GPT-4少9%。谷歌推出的AI基准测试套件BBH可评估语言模型在各种复杂任务上的性能,在这项评测中,GLM-4得分远超GPT-3.5,距离GPT-4只差不到1%;在OpenAI编写发布的代码生成评测数据集HumanEval上,GLM-4的水平超过GPT-3.5和GPT-4。
(2)指令跟随能力:在IFEval评测集上,GLM-4在Prompt级别,中文的成绩达到了GPT-4 88%的水平。在Instruction级别,GLM-4指令跟随能力达到了GPT-4的90%,远超GPT-3.5。
(3)中文对齐能力:基于公开的AlignBench数据集和一个没公开的内部测试数据集进行全面对标分析,在AlignBench上,GLM-4总体得分超过了GPT-4 6月13日发布版本,逼近最新的GPT-4 Turbo版本效果,在专业能力、中文理解、角色扮演方面,GLM-4甚至超过了最新GPT-4的精度,但在中文推理方面,GLM-4的能力还有待进一步提升和加强。
(4)长文本能力:GLM-4可支持128k上下文窗口,单次提示可处理300页文本,同时,模型的效果和精度也并没有下降。智谱AI技术团队解决了上下文全局信息因失焦而导致的精度下降问题,在“大海捞针”测试中,GLM-4模型能做到几乎100%的精准召回。
(5)多模态能力:GLM-4的文生图和多模态理解都得到进一步增强,全新推出的CogView3效果明显超过开源的Stable Diffusion XL模型,逼近OpenAI最新发布的DALL·E 3。在对齐、保真、安全、组合布局等各个评测维度上,CogView3的效果都达到DALL·E3 90%以上水平,平均可以达到95%的相对性能。相比之前,CogView3能够很好地生成手部图像,语义能力也进一步增强,可准确理解“鱼眼镜头”这样容易被机器会错意的概念,对颜色、场景、空间位置的理解也都很准确。
最近,智谱AI还提出了CogAgent模型,通过UI截图输入来理解图中的每一处信息,根据用户提问告知下一步完成相应的任务需要点击哪里,或者做出怎样的操作。智谱未来将会在这个方向着重投入,从多模态走向智能助手,希望能让CogAgent自行理解屏幕上的各种信息,不需要转化成一个个token输入到模型中,解放劳动力,用多模态改变人们的生活。智谱AI团队预测,多模态模型可能在1~2年内能够全面超越人类的视觉识别能力。
针对以往令众多用户犯难的“AI咒语”提示词问题,智谱AI还推出了GLM-4-All-Tools全家桶,实现了根据用户意图自动理解、规划复杂指令,自由调用文生图、代码解释器、网页浏览、Function Call等多项工具完成复杂任务。这意味着GLM系列模型的全家桶能力实现工业化,开发者及用户可以更轻松地使用GLM-4模型。
(1)文生图:用户在一个提示词基础上,可以新增一连串追加的提示词,CogView3能准确接收用户的意思并实现故事化的自动连续生成,语义非常准确。但是目前,图像生成的等待时间较长。
(2)代码解释器:GLM-4通过自动调用Python解释器,可以进行复杂方程或微分积分的求解,加入代码解释器后,输出的不仅仅是文本和代码,也可以是图像文件等。对比GSM8K、MATH和Math23K这三个数据集上的测试结果,GLM-4取得了与GPT-4相当的性能。
(3)网页浏览:GLM-4模型可根据任务自行规划检索任务,自行选择信息源,自行与信息源交互。比如告诉模型你要参加某个大会,向它询问当地天气状况,但并没有告诉它大会在哪里举行,这时它会自动检索大会日期和地点,然后告诉你准确的答案。在多跳式问答的复杂场景中,仅通过一次检索可能无法检测到有效信息,传统检索生成方法存在较大的局限性。GLM-4 All Tools具有高级联网功能,能够增强模型的自主信息收集能力,该方案相比GPT-4的Web browsing功能也有比较明显的优势,网页浏览准确率已经超过了GPT-4。
(4)function call:GLM-4 All Tools可根据用户提供的function描述,自动选择所需function生成参数,并根据function的返回值生成回复,支持一次输入进行多次function的调用,和支持包含中文以及特殊符号命名的function的调用。这方面的能力与GPT-4已基本持平,而且在中文理解上更强,英文能力稍差,总体上达到持平。
此外,GLMs个性化智能体定制能力上线,GLMs模型应用商店和开发者分成计划也将同期公布。基于GLM-4模型,用户只要登陆智谱清言官网,无需代码基础,用简单的prompt指令就可以创建属于自己的GLM模型智能体,实现对大模型的便捷开发。同时,在其智能体中心中,用户可分享自己创建的各种智能体,这是智谱AI扩大大模型开发者社区生态的一次进步。
智谱AI发起多个大模型基金,包括CCF-智谱大模型基金和SMP-智谱大模型交叉学科基金,对围绕预训练大模型和大模型与各领域交叉创新的相关研究提供资助, 这两支基金在2023年为来自全国30余所高校参与的41个研究项目累计提供了超过1000万元现金和算力资源的科研支持。2024年,智谱AI面向开源社区发起大模型开源基金,该开源基金可用3个“1000”来概括:为大模型开源社区提供1000张卡、提供1000万元现金以及为优秀的开源项目开发者提供1000亿免费API的tokens。此外,智谱AI与生态伙伴联合设立并发布10亿元“Z计划”创业基金,支持大模型早期创业者的创新探索,此前智谱AI已向相关企业投入数亿元人民币,支持了数十家企业。
1.2 Meta全力进军AGI,预计2024年年底拥有60万个H100处理器级别的超级算力
1月18日,Meta CEO扎克伯格在instagram上发布一则视频,宣布Meta将全力打造开源AGI。扎克伯格提出,Meta的长期目标是构建通用人工智能,将其负责任地开源并,使其广泛可用并造福全人类。通用人工智能不仅能够学习、生成和响应,而且还具有认知能力和推理决策的能力。
为了实现这一目标,Meta在内部进行战略调整,将人工智能实验室FAIR团队纳入GenAI,通用人工智能和生成人工智能研究工作更加紧密结合,重点构建AGI并全面开源。Meta首席人工智能科学家YannLeCun表示,FAIR的使命是开发人类水平(能够理解世界、感知、记忆、推理、计划和行动)的AI助手。在以前的模式下,FAIR作为主要研究技术的部门相对独立运作,而现在将两个主要研究实验室结合,有利于提高效率,在AI等长期研究领域取得更多进展。
Meta目前正在训练下一代大语言模型Llama3并建设大型计算基础设施,以支持人工智能的研究、开发和生产,包括今年年末的35万个英伟达H100GPU,加上其他的图形处理器如超微InstinctMI300系列GPU,预计到2024年年底,Meta人工智能算力总和达60万个英伟达H100图形处理器。Omdia研究数据显示,Meta在2023年购买了约15万个英伟达H100图形处理器,仅次于微软,而谷歌、亚马逊、甲骨文和腾讯分别只能获得大约5万个H100图形处理器。英伟达能否满足Meta针对人工智能的GPU产品需求还有待求证,但根据SemiAnalysis首席分析师迪伦·帕特尔预测,基于Meta的部署,英伟达基于Hopper架构的产品出货量在2024年第一季度可增加到77.3万件,在第二季度增加到81.1万件,相较于2023年第二季度30万件的H100出货量实现了大幅增长。根据投行Raymond James的分析师估计,英伟达的H100售价为2.5万至3万美元,如果Meta支付的是价格区间低端,英伟达H100 GPU支出将接近90亿美元。
对于模型Llama3的性能,CAIS负责人表示,35万块H100提供的算力比GPT-4高出约30倍,几乎达到了GPT-5的水平。OpenAI工程师、前谷歌大脑工程师JasonWei在去年8月的GenerativeAIGroup活动中提到,Meta有足够的算力来训练Llama3和Llama4,Llama3性能水平预期能比肩GPT-4,但仍将向用户免费提供。此前的Llama2模型在某些应用上能与GPT-3.5能力相媲美。
除了构建大型面向人工智能的数据中心来支持基础人工智能研究和生成人工智能应用程序之外,meta还致力于开发以AI为中心的新型终端设备并计划拓展此类产品矩阵。比如,Ray-banMeta智能眼镜采用了人工智能技术,允许用户免提拨打电话、发送消息和拍摄视频等。
1.3 AI需求强劲,超微电脑SMCI上调2024Q2业绩指引
1月19日,超微电脑(SMCI.US)表示,由于市场和终端客户对其机架规模、人工智能和整体IT解决方案的需求强劲,公司上调了2024年第二季度的销售额和利润指引。公司表示,目前预计第二季度的净销售额为36-36.5亿美元(此前指引27-29亿美元),摊薄后EPS预计为4.90-5.05美元(此前指引3.75-4.24美元),调整后摊薄EPS预计为5.40-5.55美元(此前指引4.4-4.88美元)。新的指引远高于市场普遍预期的营收28.4亿美元和调整后每股收益4.55美元,反映了AI需求强劲。
北美经济衰退预期逐步增强,宏观环境存在较大的不确定性,国际环境变化影响供应链及海外拓展;芯片紧缺可能影响相关公司的正常生产和交付,公司出货不及预期;公司生产和交付延期,导致收入及增速不及预期;信息化和数字化方面的需求和资本开支不及预期;市场竞争加剧,导致毛利率快速下滑;主要原材料价格上涨,导致毛利率不及预期;汇率波动影响外向型企业的汇兑收益与毛利率;人工智能技术进步不及预期;汽车与工业智能化进展不及预期等。