首页    资产配置    【利得研究 · 投资策略】AI Agents,下一个风口?

【利得研究 · 投资策略】AI Agents,下一个风口?

创建时间:2023-12-01
浏览量:0

 


原文章发布时间:2023年12月1日

◆     投资摘要    
 
  • AI Agents或成为大模型的下一个爆发点。OpenAI自2022年11月30日ChatGPT发布以来,AI大模型在全球范围内掀起了有史以来规模最大的人工智能浪潮。国外通用大模型玩家主要为OpenAI、谷歌、Meta、亚马逊等。国内的通用大模型玩家主要为百度、阿里、腾讯、华为等大型企业。对比国内外大模型性能,虽然2023年国内大模型发展迅速,但从性能上来看,GPT4-turbo任然遥遥领先。近期,OpenAI发布了AI Agents初期形态产品GPTs。截止11月29日,已经上线了21916个GPTs。基于大模型的Agents不仅可以让每个人都有增强能力的专属智能助理,还将改变人机协同的模式,带来更为广泛的人机融合。根据MarketsandMarkets预测,至2028年全球AI Agents市场规模将达到285亿美元,2023-2028年CAGR将达到43.0%。未来几年AI Agents有望迎来高速发展期。

     

  • AI Agents发展对算力产业链提出更高要求,主要包括计算、存储和网络三部分。AI Agents本质上是是在大模型基础上的集成化应用,因此AI Agents也对算力等提出了更高的要求。1)计算:深度学习模型,尤其是深度神经网络,通常包含大量的参数和层次结构。而AI Agents涉及到深度学习和更大规模数据处理的任务。为了训练这些模型,需要进行大量的矩阵运算。因此将对计算能力提出更高的要求。且AI Agents通常需要处理大规模的数据集,以便学习和进行推断。2)存储:随着数据量的增长,存储数据的能力也至关重要。不同的AI Agents需要什不同类型的存储,其取决于人工智能水平以及它们是否需要做出实时决策等。3)网络:深度学习算法高度依赖通信,如果AI Agents需要从云端获取数据或利用分布式计算资源,稳定而高速的网络连接将非常重要。因此,网络是AI Agents的基础设施的另一个关键组成部分。

     

  • 算力是AI大模型及其AI Agents发展率先受益的方向,预计到2030年AI算力有望增长500倍。算力产业链可以重点关注三大细分领域:1)计算:关注AI服务器、国产GPU及华为昇腾产业链,服务器方面,AI浪潮催化下,2023年全球AI服务器出货量有望同增38.4%,AI芯片方面,近期美国芯片出口限制法案阻碍我国获取高性能芯片,美国的出口限制一方面可能使得GPU的生产、设计或进一步向国内转移,倒逼国内GPU市场份额提升,另一方面也可能促使华为昇腾生态或崛起。2)存储:关注HBM,当前HBM已普遍搭配AI训练芯片使用,AI服务器对HBM需求拉动预计超百亿美元;3)网络:关注光模块,AI的发展提升了对光模块速率和数量的需求,高速光模块有望维持高景气。

     

  • 投资意见:宏观周期重回“底部过渡+双宽”阶段,行业配置上科技弹性大,当前国内外大模型发展迅速,AI Agents或成为大模型的下一个爆发点,而算力是大模型的根基,也是AI大模型及其AI Agents发展率先受益的方向。建议长期关注算力产业链发展趋势,细分领域关注:1)计算:AI服务器、国产GPU及华为昇腾产业链;2)存储:“内存墙”破局者HBM;3)网络:传输核心器件光模块。指数方面可关注人工智能ETF。

     

  • 风险提示:后续中美关系发展不及预期。

 
◆     正文    ◆

 

 
 
一、AI Agent是什么?
 
1.1 国内外大模型发展迅速
 
 

国外方面,OpenAI、谷歌等公司引领AI大模型发展浪潮。尽管在聊天机器人上被OpenAI捷足先登,但谷歌对人工智能的基础理论的贡献是无可替代的,其推出了BERT模型、LaMDA模型、Switch Transformer模型、通用稀疏语言模型GLaM、PaLM-E多模态视觉语言模型(VLM)等多个基础模型来多方面提高大模型性能。而OpenAI自2022年11月30日ChatGPT发布以来,便在全球范围内掀起了有史以来规模最大的人工智能浪潮:2023年4月,亚马逊云科技在推出的大语言模型Titan。2023年5月,谷歌在年度开发者大会Google I/O 2023上发布了新的通用大语言模型PaLM 2。2023年7月,Meta在其官网宣布大语言模型Llama 2正式发布……2023年11月6日,OpenAI再度发布GPT-4 Turbo,新版本在更长的上下文长度、更强的控制、知识升级、多模态、模型微调定制和更高的速率限制这六大领域完成了迭代升级,同时用户可以通过自然语言打造自己的 GPT,并且公开分享至GPT Store。除通用大模型外,多家厂商还发布了细分领域类模型,如Midjourney的绘图模型、Jasper声学模型等。

 

 
图1国外厂商通用AI大模型概况

 
资料来源公开资料整理,利得研究院
图22023海外大著名大模型

 
资料来源公开资料整理,利得研究院
 
        国内的通用大模型玩家主要为百度、阿里、腾讯、华为等大型企业,中小型公司更多的是寻找可落地的场景来开发。2023年,国内以科大讯飞、金山办公、同花顺等垂类厂商,以及华为、百度、阿里等互联网大厂为代表,相继发布AI在垂直行业及细分场景中的应用产品及服务,并且产品均在不断迭代。以百度和科大讯飞为例, 10月17日,百度文心大模型4.0正式发布,4.0在理解、生成、逻辑和记忆能力上都有显著提升,其中逻辑和记忆能力的提升更大,逻辑的提升幅度达到理解的近3倍,记忆的提升幅度也达到了理解的2倍多;10月24日,讯飞星火认知大模型V3.0正式发布,七大维度能力全面提升,其中文本生成提升7%,语言理解提升6%,知识问答提升7%,逻辑推理提升8%,数学能力提升3%,代码能力提升9%,多模态能力提升7%,部分能力甚至已经赶超ChatGPT。国内大模型发布数量与美国差距不大,但从整体的影响力来看,国内大模型还没像OpenAI、谷歌一样形成世界性的影响力。并且国内更倾向于利用龙头企业的开源模型来做应用落地的创业,如AI+办公、教育、医疗、金融、文娱、交通等。
 
图3美国与国内大模型数量差距不大

 
资料来源公开资料整理,利得研究院
图42023关注度较高的中文大模型

 
资料来源公开资料整理,利得研究院
 
        对比国内外大模型性能,虽然2023年国内大模型发展迅速,但GPT4-turbo任然遥遥领先。过去1年国内大模型已经有了长足的进步,其中,根据SuperCLUE测评,综合能力超过GPT3.5的模型有8个,分别为百度的文心一育4.0、零一万物的Yi-34B-Chat、月之暗面的Moonshot、vivo的BlueLM、腾讯的混元阿里云的通义千问2.0、清华&智谱AI的ChatGLM3、字节跳动的云雀。但是 GPT4-Turbo仍遥遥领先其他模型。此外,开源AI社区代表Hugging Face发布最受欢迎开源大模型机构TOP15榜单,在大名鼎鼎的Stability AI、Meta AI、Runway、OpenAI、谷歌、微软等海外机构外,只有一家机构来自中国:KEG实验室(全称为清华大学知识工程实验室,成立于1996年),其凭借今年开源的模型ChatGLM-6B上榜。
 
 
图5大模型跑分

 
资料来源SuperCLUE,利得研究院
 
        海内外AI大模型市场规模快速增长的趋势有望延续。从市场规模来看,根据《2023中美AI大模型应用比较研究报告》,预计2023年我国AI大模型及人工智能市场规模达到147亿人民币和147.52亿美元,同比分别增长110.0%和20.5%。2024年,国内外厂商有望发布更加复杂的多模态大模型,实现文本、语音、图像以及音视频等多模态数据的复杂处理和交互,预计AI大模型市场规模仍将延续快速增长。
 
1.2 AI Agents或成为大模型的下一个爆发点
 
 

AI Agents是大模型的间接应用,也是大模型实现商业化闭环的重要路径。目前大模型厂商面临的问题是没有足够高质量的生态给大模型厂商付费,大模型厂商亟需在应用端发力来实现价值闭环,即从“有大模型”进化到“用大模型”。而大模型的“应用”可以划分为两类:直接应用和间接应用,前者主要用到大模型的内容生成能力,如妙鸭相机,另一类则是利用大模型的认知、推理、协调和控制能力,即AI Agents。

GPT5正在开发中,而比尔盖茨更看好AI Agents。奥特曼在接受英国《金融时报》采访时表示GPT5正在开发中,当前 GPT-5的商标也由OpenAI的运营子公司已早早在各国申请好。OpenAI内部包括奥特曼在内的很多人,都相信GPT-5将明显优于GPT-4。但比尔盖茨曾在10月末表示,GPT-5不会比GPT-4好多少,未来不会再有像GPT-2到GPT-4那样重大的飞跃,生成式人工智能或已经达到瓶颈。比尔盖茨认为,下一个突破将是AI Agents。11月初,盖茨曾写博客阐述了“个人AI Agents将如何彻底改变人们使用计算机的方式”。

OpenAI将AI Agents定义为,以大语言模型为大脑驱动,具有自主理解感知、规划、记忆和使用工具的能力,能自动化执行完成复杂任务的系统。在计算机、人工智能专业技术领域,一般将agent译为“智能体”,即是在一定的环境中体现出自治性、反应性、社会性、预动性、思辨性(慎思性)、认知性等一种或多种智能特征的软件或硬件实体。它具有记忆、规划、行动和使用工具四个主要模块。通过四个模块相互配合使智能体能够在更广泛的情境中采取行动和作出决策,以更智能、更高效的方式执行复杂任务。

 

图6基于LLM驱动的Agents基本框架资料来源《LLM Powered Autonomous Agents》,利得研究院
 
 

生成式AI的智能革命演化逐渐呈现出嵌入(embedding)、副驾驶(Copilot)、智能体(Agents)三种模式。(1)嵌入模式:用户通过与AI进行语言交流,使用提示词来设定目标,然后AI协助用户完成这些目标,比如普通用户向生成式AI输入提示词创作小说、音乐作品、3D内容等。在这种模式下,AI的作用相当于执行命令的工具,而人类担任决策者和指挥者的角色,也就是人类完成大部分任务。2)副驾驶模式:2021年微软在GitHub首次引入了Copilot的概念2023年5月,微软在大模型的加持下,Copilot迎来全面升级,推出Dynamics 365 Copilot、Microsoft 365 Copilot和Power Platform Copilot等。在这种模式下,人类和AI更像是合作伙伴,共同参与到工作流程中,各自发挥作用。3)智能体模式:人类设定目标和提供必要的资源(例如计算能力),然后AI独立地承担大部分工作,最后人类监督进程以及评估最终结果。

 

图7生成式AI的三种发展模式

资料来源:公开资料整理,利得研究院
 
        GPTs可以看成为AI Agents初期产品,未来AI Agents有望迎来高速发展期。美国东部时间11月6日,OpenAI举办了首届开发者大会Open AI DevDay,发布了GPT-4 Turbo、GPTs、Assistants API等一系列更新。OpenAI发布了AI Agent初期形态产品GPTs,并推出了相应的制作工具GPT Builder。用户仅仅通过跟GPT Builder聊天,把想要的GPT功能描述一遍,就能生成专属GPT。专属GPT可以在日常生活、特定任务、工作或家庭中更为适用。发布会结束后一周内便有超过17500个GPTs上线。截止11月29日,已经高达21916个GPTs。基于大模型的Agents不仅可以让每个人都有增强能力的专属智能助理,还将改变人机协同的模式,带来更为广泛的人机融合。根据MarketsandMarkets预测,至2028年全球AI Agent市场规模将达到285亿美元,2023-2028年CAGR将达到43.0%,未来AI Agents应用有望迎来爆发。
 
图8GPTs个数飞速增长

资料来源openai,得研究院
图9预计2028年全球AI Agents规模达到285亿美元

资料来源公开资料整理,利得研究院
 
 
1.3 AI Agents发展对算力产业链提出更高要求
 
 

大模型的训练环节、日常运行的推理环节均需要大量算力。算力是对信息数据进行处理输出目标结果的计算能力。自GPT-3之后,大规模的自然语言模型进入了千亿参数时代,GPT-3模型参数量为1750亿,训练算力需求为3.14*1023 flops,当前各种预训练语言模型还在快速的更新迭代,不断刷新自然语言处理任务的表现记录,单一模型的训练算力需求也不断突破新高。另外,大模型的日常运行中每一次用户调用都需要一定的算力和带宽作为支撑,单次推理的计算量为2*模型参数量,例如1750亿参数的GPT-3模型1k tokens的推理运算量为2*1750*108*103=3.5*1014 flops=350 Tflops,假设ChatGPT访问人数450万人,每小时每人提问8次,每次需回答200字,则需要14000块英伟达A100芯片进行日常的算力支撑。

算力是大模型的根基,也是AI大模型及其AI Agents发展率先受益的方向,预计到2030年AI算力有望增长500倍。基于Transformer体系结构的大型语言模型涉及高达数万亿从文本中学习的参数,所使用的数据量和参数规模呈现“指数级”增长,远超过算力产业的摩尔定律增速,参数和数据规模的增长带来的是算力消耗增加。因此,未来的大模型所消耗的算力大概率将远超过目前已有的大模型,根据华为的预测,到2030年,全球AI算力有望增长500倍,超过100Zflops。

 

图10:Transformer模型消耗的算力远超过摩尔定律

资料来源:A Survey of Large Language Models,国海证券,利得研究院

图11:大语言模型(LLM)产业链

资料来源国海证券,利得研究院

 

        AI Agents发展对算力产业链提出更高要求,主要包括计算、存储和网络三部分。AI Agents本质上是是在大模型基础上的集成化应用,因此AI Agents也对算力等提出了更高的要求。1)计算:深度学习模型,尤其是深度神经网络,通常包含大量的参数和层次结构。而AI Agents涉及到深度学习和更大规模数据处理的任务。为了训练这些模型,需要进行大量的矩阵运算。因此将对计算能力提出更高的要求。且AI Agents通常需要处理大规模的数据集,以便学习和进行推断。2)存储:随着数据量的增长,存储数据的能力也至关重要。不同的AI Agents需要什不同类型的存储,其取决于人工智能水平以及它们是否需要做出实时决策等。3)网络:深度学习算法高度依赖通信,如果AI Agents需要从云端获取数据或利用分布式计算资源,稳定而高速的网络连接将非常重要。因此,网络是AI Agents的基础设施的另一个关键组成部分。

 

 

 
 
二、算力产业链有哪些可以关注的方向?
 
2.1 计算:关注AI服务器、国产GPU及华为昇腾产业链
 
 
 
2.1.1 AI服务器:AI算力载体
AI服务器是一种能够提供人工智能(AI)计算的服务器。AI服务器既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。从结构上来看,AI服务器主要是异构形式的服务器,可以为CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或 CPU+多种加速卡,但目前广泛采用的是CPU+GPU架构。AI服务器相比于普通的服务器而言有三点优势:1)更大容量内存,满足大数据实时负载增加的需求;2)提供更多外置硬盘插槽,满足快速存储需求;3)需要带宽更高的网络模块,提升AI服务器与终端用户的数据高速传输速度。根据IDC数据,AI服务器占全球服务器市场17%,占中国服务器市场25%。
AI浪潮催化下,2023年全球AI服务器出货量有望同增38.4%。根据TrendForce&IDC统计,2022年全球AI服务器出货量85.5万台,其中搭载GPGPU的AI服务器出货量占整体服务器出货量1%,市场规模占比约17%;在AIGC带动下,2023年全球AI服务器出货量有望同增38.4%。
中国AI品牌服务器市场格局为一超多强。服务器市场玩家主要有两类:品牌商和服务器代工厂。根据 Statista,2021年,前五大服务器代工厂商为鸿海、广达、纬创、英业达、美超微,均为中国台湾企业,品牌商主要为戴尔、HPE、浪潮信息。聚焦到AI服务器领域,就市场份额而言,国内AI服务器市场呈现一超(浪潮信息)多强(宁畅、新华三、华为、安擎等)格局。

 

图12:2022-2026年全球AI服务器出货量预估

资料来源:Trendforce,利得研究院

图13:2021年中国AI服务器品牌商竞争格局

资料来源:IDC,利得研究

 

2.1.2 AI芯片:AI算力核心

AI芯片部署的位置有两种:云端、终端。根据部署的位置不同,AI芯片可以分为:云AI芯片、端AI芯片。云端,即数据中心,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。终端,即手机、安防摄像头、汽车、智能家居设备、各种IoT设备等执行边缘计算的智能设备。终端的数量庞大,而且需求差异较大。当前,大多数AI训练和推理工作负载都发生在公共云和私有云中,云仍是A1的中心。但在对隐私、网络安全和低延迟的需求推动下,云端出现了在网关、设备和传感器上执行AI训练和推理工作负载的现象。为了解决这些问题,将需要更高性能的计算芯片及新的AI学习架构。互联网是云端算力需求较旺盛产业,因此除传统芯片企业、芯片设计企业等参与者外,互联网公司纷纷入局AI芯片产业,投资或自研云端AI芯片。

AI的实现包括两个环节:训练、推理。在AI实现的过程中,需要训练、推理两个过程。1)训练是指通过大数据训练出一个复杂的神经网络模型,使之可以适应特定的功能。其需要极高的计算性能,能处理海量的数据,较高的精度,并拥有通用性以便完成各种各样的学习任务。训练芯片受算力约束,一般只在云端部署。CPU由于计算单元少,并行计算能力较弱,不适合直接执行训练任务,因此训练一般采用“CPU+加速芯片”的异构计算模式。目前NVIDIA的GPU+CUDA计算平台是最成熟的AI训练方案,除此还有两种方案:第三方异构计算平台OpenCL + AMD GPU或OpenCL + Intel/Xilinx FPGA。以及云计算服务商自研加速芯片,如Google的TPU。2)推理则是指利用训练好的模型,利用新的输入数据来一次性获得正确结论的过程。推理相对来说对性能的要求并不高,但由于推理的结果直接提供给终端用户,因此更关注用户体验方面的优化。

 

图14人工智能芯片训练方案及代表公司

资料来源:公开资料整理,利得研究院

 
目前,作为加速应用的AI芯片,主要的技术路线有四种:GPU、FPGA、ASIC、类脑芯片。1)GPU:即图形处理器,是一种由大量核心组成的大规模并行计算架构,专为同时处理多重任务而设计。2)FPGA(Field-Programmable Gate Array):即现场可编程门阵列,作为专用集成电路领域中的一种半定制电路出现。FPGA利用门电路直接运算,速度快,而用户可以自由定义这些门电路和存储器之间的布线,改变执行方案,以期得到最佳效果。常用于推理阶段。3)ASIC(Application Specific Integrated Circuits),即专用集成电路,是一种为专用目的设计的,面向特定用户需求的定制芯片,在大规模量产的情况下具备性能更强、体积更小、功耗更低、成本更低、可靠性更髙等优点,是当前大部分AI初创公司开发的目标产品。ASIC与GPU和FPGA不同,GPU和FPGA除了是一种技术路线之外,还是实实在在的确定的产品,而ASIC就是一种技术路线或者方案,其呈现出的最终形态与功能也是多种多样的。4)类脑芯片:传统计算机芯片通常基于冯·诺依曼架构设计,而类脑芯片则尝试模拟人脑的信息处理方式,实现数据并行传送、分布式处理,并能够以低功耗实时处理海量数据。类脑芯片具有高能源利用率、可塑性和自适应学习能力。目前,类脑芯片尚不成熟,部分企业产品已进入小批量试用阶段。
 
 
图15:AI实现的两个环节及AI芯片的部署位置

 
资料来源:公开资料整理,利得研究院
图16AI芯片技术路线对比

 
资料来源:公开资料整理,利得研究院
 
        短期GPU将延续AI芯片的领导地位,目前其是AI服务器上价值量占比最高的部分。目前GPU是市场上用于AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次尚浅时期,GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额根据ICD数据,2022 年国内的AI服务器90%以上是GPU作为核心计算单元的。同时,由于AI服务器在CPU的基础上大幅增加GPU用量,并且GPU单价通常高于CPU,因此AI服务器最大的成本项即为GPU,以浪潮信息的NF5688M6产品为例, 8张A800共计71万元,占比约68%(服务器总价值105万元)。
 
图17中国AI服务器中90%是GPU服务器(亿美元)

资料来源:IDC,利得研究院
图18浪潮NF5688M6服务器价值量拆分料来源:京东,东北证券,利得研究院
 
        未来FPGA有望获得较快增长,ASIC也有望与之相互融合。FPGA的最大优势在于可编程带来的配置灵活性,在目前技术与运用都在快速更迭的时期具有巨大的实用性,而且FPGA还具有比GPU更高的功效能耗比。企业通过FPGA可以有效降低研发调试成本,提高市场响应能力,推出差异化产品。在专业芯片发展得足够重要之前,FPGA是最好的过渡产品,所以科技巨头纷纷布局云计算+FPGA的平台。随着FPGA的开发者生态逐渐丰富,适用的编程语言增加,FPGA运用会更加广泛。此外,由于在手机、可穿戴设备等端设备中,很少有独立的芯片,AI加速将由SoC C(System-on-chip,片上系统)上的一个IP实现。SoC作为ASIC设计方法学中的新技术,始于20世纪90年代中期,是以嵌入式系统为核心,以IP复用技术为基础,集软、硬件于一体的集成芯片。由于高集成效能,SoC已经成为微电子芯片发展的必然趋势。随着SoC的发展,FPGA和ASIC正在互相融合。
        海外方面,为突破英特尔、英伟达、AMD算力垄断,海外科技巨头纷纷开始自研AI芯片。近年来,家用PC端的GPU市场由英持尔、英伟达和AMD三分天下,其中英特尔的市场占比份额在60%以上,其次是英伟达和AMD。而在独显市场中,Nvidia和AMD八二分成。为突破垄断,科技大厂如亚马逊、微软和谷歌原本以软件为主要产品的公司现在纷纷斥资数十亿美元用于芯片开发和生产。这三家大厂已推出或计划发布8款服务器和AI芯片,自用或者用于云服务器租赁。1)亚马逊:于2023年11月在拉斯维加斯举办的re:Invent全球大会上发布了两款自研芯片 Graviton4 和 Trainium2,并推出企业级AI 聊天机器人“Amazon Q”抢占AI 硬件市场。2)微软:2023年11月16 日,微软在年度 Ignite 大会上推出两款自研芯片——云端 AI 芯片Azure Maia 100、服务器 CPU Azure Cobalt 100。两款芯片 2024 年年初开始在微软数据中心推出,最初将为微软的 Copilot 或 Azure OpenAI Service 等服务提供动力3)谷歌:早在2020年,谷歌就在其数据中心上部署了TPU v4。
 
图19PC端GPU三大厂商市占率

资料来源:公开资料整理,利得研究院
图20独显GPU市场份额

资料来源:JPR,利得研究院
 
        国内方面, GPU主要依赖英伟达进口,国产AI芯片正在努力发展。2022年,英伟达则占我国加速卡市场份额超80%。为摆脱英伟达的垄断,初创公司如芯瞳半导体、芯动科技、摩尔线程、天数智芯、壁仞科技均产品陆续推出产品,并获好评,龙芯中科、海光信息、寒武纪、芯原股份几家上市公司也持续耕耘GPU业务。不止如此,也均在替代CUDA上做了一些工作。FPGA方面,目前国内相关研发企业数量超过28家,其中已在A股上市的企业包括复旦微电子、安路科技、航锦科技等。此外,紫光同创、高云半导体、京微齐力、中科亿海微、智多晶、遨格芯微、易灵思的表现也较好。除此之外,百度也曾经使用FPGA做AI加速,此后又推出专用于AI计算的昆仑芯(开始是FPGA,后来是基于FPGA的XPU。ASIC方面,寒武纪、地平线、耐能科技等厂商,分别专注AI芯片的细分领域,采用“大客户捆绑”模式进入大客户供应链。通过对比国际尖端产品,目前各种AI芯片核心参数差距依然较大。
 
图21国内人工智能芯片图谱资料来源亿欧智库,利得研究
 
        近期美国芯片出口限制法案阻碍我国获取高性能芯片。近期美国芯片出台了出口限制法案阻碍我国获取高性能芯片。10月17日,美国BIS发布出口禁令,主要内容包括:1)AI芯片出口管控的参数设置了性能密度阈值。出口限制不再以互联带宽为限制标准,新增总处理性能 TPP和性能密度PD两项要求,TPP>4800的芯片、TPP>1600且PD>5.92的芯片属于高性能芯片,不再被允许出口,而4800>TPP>2400且5.92>PD>1.6的芯片、TPP>1600且 5.92>PD>3.2的芯片,属于次高性能芯片,需要通知BIS以获得例外许可。2)扩大半导体设备的出口管制,增加了需要申请半导体制造设备许可证的国家数量;3)增加13家实体纳入美国BIS管控清单。美政府起初宣布,新规将在30天后生效,但10月24日,美商务部宣布取消3天缓冲期,随后,英伟达确认其A100、A800、H100、H800和L40S产品的发货都受到了一定的影响。
        GPU市场空间广阔,美国封锁或倒逼国产GPU或华为昇腾链份额提升。据中商产业研究院援引Verified Market Research数据,2021年全球GPU行业市场规模为334.7 亿美元,预计2030年将达到4773.7亿美元,预计2021-2030年年均复合增长率将达 34.4%,GPU成长空间广阔。美国的出口限制,对国内算力产业链的影响或有两条路径:1)GPU的生产、设计或进一步向国内转移,倒逼国内GPU市场份额提升,国产GPU诸如寒武纪、海光信息、景嘉微等公司有望受益;2)华为昇腾生态或崛起。华为昇腾计算产业是基于昇腾系列处理器和基础软件构建的全栈AI计算基础设施、行业应用及服务,已发展为包括昇腾系列芯片、硬件、CANN、AI 计算框架、应用使能、开发工具链、管理运维工具等全产业链的完整体系。昇腾系列处理器是基于华为达芬奇架构的神经网络处理器(NPU),属于ASIC的一种,本质跟CPU+GPU的架构有较大的区别,是ASIC 芯片,相比于GPU和FPGA类型的AI芯片,ASIC的特定性能、规格、功耗等均显著优于前两者,但可编程性不足。目前,华为的昇腾系列处理器包括昇腾310和昇腾910 两款,昇腾310定位为推理处理器,主要用于智能手机、智能附件等电子终端,910 定位为训练处理器,主要应用于高端服务器和云计算,运算能力可达 FP16 320 TFLOPS、INT8 640TOPS,均高于英伟达A100。因此,美国对我国高性能运算领域的出口封锁或使得华为昇腾计算生态崛起。
 
图22当前使用英伟达A100 GPU的公司名称及用量
资料来源:新智元,利得研究院
图23:华为昇腾处理器与英伟达A100处理器对比资料来源:海思官网,英伟达官网,财通证券,利得研究院
 

 

2.2 存储:关注"内存墙"破局者HBM
 
 

存储领域重点关注HBM。

AI服务器对存储器容量和价值量均有显著拉动。AI服务器用到的主要存储器包括 CPU内存、GPU显存和硬盘NAND,与普通服务器类似,CPU的运行数据写入DRAM ,CPU和GPU产生的数据共同写入NAND 。容量方面,对于DRAM:英伟达的AI训练服务器中CPU DRAM容量达2TB,单个GPU一般搭载80GB以上HBM存储器,HBM总容量预计超 640G,相比于普通服务器,总内存量有4-8倍的提升;对于NAND:普通服务器配备较多的机械硬盘,AI服务器主要配备固态硬盘,其硬盘容量大约30TB,存储量较普通服务器有2-4倍的提升。价值量方面,根据招商证券测算,AI服务器中CPU内存和SSD的价值量相较于普通双路服务器预计均提升5倍左右,

 

图24:AI服务器价值增量测算

 
资料来源:招商证券,CF 闪存市场、AMD、Intel、英伟达,利得研究院
 

HBM已普遍搭配AI训练芯片使用,AI服务器对HBM需求拉动预计超百亿美元。HBM全称为High Bandwidth Memory,是一种基于2.5/3D封装的新型的存储技术,旨在提高内存带宽并解决内存墙问题。与其他内存技术相比,HBM 具有以下优势:1)高带宽:HBM采用3D堆叠技术,将多个DRAM芯片垂直堆叠在一起,从而实现了更高的数据传输速率和更低的延迟。2)低功耗:HBM采用了更先进的工艺和设计技术,能够在相同的带宽下消耗更少的电力;3)高密度:HBM 能够在更小的空间内提供更高的存储容量,从而减少了系统的体积和重量;4)高可靠性:HBM 采用了更先进的封装技术,能够提供更好的抗干扰能力和更高的可靠性;5)更好的可扩展性:HBM支持多个堆叠层的组合,可以根据需要增加存储容量和带宽。目前,HBM已普遍搭配AI训练芯片使用,例如英伟达A100中单个GPU搭载80GB容量的HBM2E,H100中单个GPU搭载了80GB容量的HBM3,随着AI服务器渗透率提升、单个AI服务器中GPU数量的提升、单个GPU搭载的HBM Stack数量增加以及HBM堆叠层数和容量的提升,HBM的需求增量有望显著提升。根据招商证券测算,2024年AI服务器有望带动HBM超百亿美金增量市场。

 

 

2.3 网络:关注传输核心器件光模块
 
 

网络通信领域重点关注传输载体光模块。

网络通信是算力的瓶颈之一,通信带宽的提升速度远低于计算提升速度。算力主要取决于GGPU的计算速度,但GGPU的利用率一般仅为10%-30%,而利用率的瓶颈就在于通信。AI模型参数量和训练用数据量大,需要多个GPU和多台服务器并行计算,因此这对数据传输(即通信)就有了更高的要求。近20年,设备的算力提高了9万倍,但是通讯带宽的增长只有30倍,通信带宽的提升速度远低于计算提升的速度。

光模块可以通过提升外部通信效率来提升算力的整体利用效率。目前,数据中心的通信包括两类:内部通信和外部通信。其中,内部通信发生在多个GPU之间、GPU和 CPU之间以及GPU、CPU和DRAM之间,主要依赖于PCIe;外部通信则是指服务器、交换机、路由器和存储设备之间的通信,主要依赖铜缆和光缆,其中光模块是光通信的必要部件,其发送端把电信号转换成光信号,中间段以光缆传输,接收端再把光信号转换成电信号,因此,光模块可以通过提升外部通信效率来提升算力的整体利用效率。

 

图25:通信带宽的提升速度远低于计算提升的速度

 
资料来源:量子位,利得研究院
图26光模块工作过程

 
资料来源:公开资料整理,利得研究院
 
        AI的发展提升了对光模块速率和数量的需求,高速光模块景气度高。一方面,内部通信速率的提升也会驱动交换机和服务器的传输速率提升,如果光模块传输速率没有增加,就需要数量更多的低速光模块,同时,服务器、交换机所需端口、光缆数量也需要相应增加,但基于散热和体积等因素,端口数量有潜在的物理限制,因此使用高速光模块是更好的选择;另一方面,外部通信从之前的三层网络(接入层、汇聚层、核心层)迭代到叶脊网络架构,相比于传统的三层网络,叶脊网络的连接点数量增多,对光模块数量的需求增多,因此,在AI的催化下,高速光模块有望维持高景气。
        从光模块的整体市场规模来看,根据中商产业研究院发布的《2023-2028年中国光模块行业市场前景预测及未来发展趋势研究报告》,2022年全球光模块的市场规模约96亿美元,同比增长9.09%,预计2023年全球光模块市场规模将达99亿美元,且有望在2027年突破156亿美元;国内方面,2022年中国光模块的市场规模约为476.82亿元,预计2023年中国光模块行业市场规模有望达到554.5亿元。
 
 
图272022-2027全球光模块市场规模预测

 
资料来源:中商情报网,利得研究院
图28叶脊网络示意图

 
资料来源:海思官网,英伟达官网,财通证券,利得研究院
图29光模块产业链

 
资料来源:深圳电子商会,国海证券,利得研究院
 

 

 
 
三、投资意见
 

宏观周期重回“底部过渡+双宽”阶段,行业配置上科技弹性较大。11月以来,市场情绪有所好转,但股权风险溢价依旧维持高位。后续美联储加息预计见底在即,年末政策有望出台的背景下,后续市场或继续修复。双宽格局下,仍利好科技等高弹性行业。可考虑受益于基本面修复及预期反转,以及新一轮产业周期崛起且具备高波动特征的科技制造作为进攻方向,算力产业链也是科技制造的重点关注领域之一。

国内外大模型发展迅速, AI Agents或成为大模型的下一个爆发点,而算力是大模型的根基,也是AI大模型及其AI Agents发展率先受益的方向。国内外大模型发展迅速,但当前大模型厂商面临的问题就是没有足够高质量的生态给大模型厂商付费,大模型厂商亟需在应用端发力来实现价值闭环,即从“有大模型”进化到“用大模型”。AI Agents是大模型的间接应用,也是大模型实现商业化闭环的重要路径。大模型的训练环节、日常运行的推理环节均需要大量算力,AI Agents涉及到深度学习和更大规模数据处理的任务,因此也对算力等提出了更高的要求。算力是大模型的根基,也是AI大模型及其AI Agents发展率先受益的方向,根据华为的预测,到2030年,全球AI算力有望增长500倍,超过100Zflops。

长期来看,算力产业链领域可以重点关注三大方向:1)计算:关注AI服务器、国产GPU及华为昇腾产业链;2)存储:关注“内存墙”破局者HBM;3)网络:关注传输核心器件光模块。指数方面,建议关注人工智能ETF

 
 

 

 

 

法律声明

 

风险提示

投资有风险。基金的过往业绩并不预示其未来表现。基金管理人管理的其他基金的业绩并不构成基金业绩表现的保证。相关数据仅供参考,不构成投资建议。投资人请详阅基金合同等法律文件,了解产品风险收益特征,根据自身资产状况、风险承受能力审慎决策,独立承担投资风险。

 

重要声明

阁下/贵方接受、阅读或使用本文件即表明阁下/贵方已事先及无条件接受以下“重要声明”所载之条款和条件:

本文件系为利得基金备制,本文件中的信息仅作参考之用,不构成任何具有法律约束力之产品投资要约或要约邀请,并且不可用于对投资的评估。

本文件所载信息仅为初步提示,利得基金从未表述或保证本文件中的信息的完整性和准确性,接受或使用者亦不得对其完整性和准确性提出要求。即使本文件所有信息系已尽最大的谨慎提供、选择和校验,利得基金对于信息的完整性以及内容的正确性亦不承担任何责任。

本资料仅为宣传用品,本机构及工作人员不存在直接或间接主动推介相关产品的行为,不构成投资建议。

 

保密条款

本文件中的信息均为保密信息,未经利得基金书面事先同意,不得为任何其它目的,整体或部分地使用、复制或传播本文本中所含信息。

未经事先书面许可,本文件不可被复制或分发,本文件内容亦不可向任何第三者披露,仅供特定范围内的资深专业投资人士使用,不得用作它途。一旦接收或阅读本文件,阁下/贵方应被视为已经接受此项保密条款。

 

 

 

利得研究院