【利得研究 · 投资策略】AI Agents,下一个风口?
原文章发布时间:2023年12月1日
|
国外方面,OpenAI、谷歌等公司引领AI大模型发展浪潮。尽管在聊天机器人上被OpenAI捷足先登,但谷歌对人工智能的基础理论的贡献是无可替代的,其推出了BERT模型、LaMDA模型、Switch Transformer模型、通用稀疏语言模型GLaM、PaLM-E多模态视觉语言模型(VLM)等多个基础模型来多方面提高大模型性能。而OpenAI自2022年11月30日ChatGPT发布以来,便在全球范围内掀起了有史以来规模最大的人工智能浪潮:2023年4月,亚马逊云科技在推出的大语言模型Titan。2023年5月,谷歌在年度开发者大会Google I/O 2023上发布了新的通用大语言模型PaLM 2。2023年7月,Meta在其官网宣布大语言模型Llama 2正式发布……2023年11月6日,OpenAI再度发布GPT-4 Turbo,新版本在更长的上下文长度、更强的控制、知识升级、多模态、模型微调定制和更高的速率限制这六大领域完成了迭代升级,同时用户可以通过自然语言打造自己的 GPT,并且公开分享至GPT Store。除通用大模型外,多家厂商还发布了细分领域类模型,如Midjourney的绘图模型、Jasper声学模型等。
AI Agents是大模型的间接应用,也是大模型实现商业化闭环的重要路径。目前大模型厂商面临的问题是没有足够高质量的生态给大模型厂商付费,大模型厂商亟需在应用端发力来实现价值闭环,即从“有大模型”进化到“用大模型”。而大模型的“应用”可以划分为两类:直接应用和间接应用,前者主要用到大模型的内容生成能力,如妙鸭相机,另一类则是利用大模型的认知、推理、协调和控制能力,即AI Agents。
GPT5正在开发中,而比尔盖茨更看好AI Agents。奥特曼在接受英国《金融时报》采访时表示GPT5正在开发中,当前 GPT-5的商标也由OpenAI的运营子公司已早早在各国申请好。OpenAI内部包括奥特曼在内的很多人,都相信GPT-5将明显优于GPT-4。但比尔盖茨曾在10月末表示,GPT-5不会比GPT-4好多少,未来不会再有像GPT-2到GPT-4那样重大的飞跃,生成式人工智能或已经达到瓶颈。比尔盖茨认为,下一个突破将是AI Agents。11月初,盖茨曾写博客阐述了“个人AI Agents将如何彻底改变人们使用计算机的方式”。
OpenAI将AI Agents定义为,以大语言模型为大脑驱动,具有自主理解感知、规划、记忆和使用工具的能力,能自动化执行完成复杂任务的系统。在计算机、人工智能专业技术领域,一般将agent译为“智能体”,即是在一定的环境中体现出自治性、反应性、社会性、预动性、思辨性(慎思性)、认知性等一种或多种智能特征的软件或硬件实体。它具有记忆、规划、行动和使用工具四个主要模块。通过四个模块相互配合使智能体能够在更广泛的情境中采取行动和作出决策,以更智能、更高效的方式执行复杂任务。

生成式AI的智能革命演化逐渐呈现出嵌入(embedding)、副驾驶(Copilot)、智能体(Agents)三种模式。(1)嵌入模式:用户通过与AI进行语言交流,使用提示词来设定目标,然后AI协助用户完成这些目标,比如普通用户向生成式AI输入提示词创作小说、音乐作品、3D内容等。在这种模式下,AI的作用相当于执行命令的工具,而人类担任决策者和指挥者的角色,也就是人类完成大部分任务。(2)副驾驶模式:2021年微软在GitHub首次引入了Copilot的概念。2023年5月,微软在大模型的加持下,Copilot迎来全面升级,推出Dynamics 365 Copilot、Microsoft 365 Copilot和Power Platform Copilot等。在这种模式下,人类和AI更像是合作伙伴,共同参与到工作流程中,各自发挥作用。(3)智能体模式:人类设定目标和提供必要的资源(例如计算能力),然后AI独立地承担大部分工作,最后人类监督进程以及评估最终结果。
大模型的训练环节、日常运行的推理环节均需要大量算力。算力是对信息数据进行处理输出目标结果的计算能力。自GPT-3之后,大规模的自然语言模型进入了千亿参数时代,GPT-3模型参数量为1750亿,训练算力需求为3.14*1023 flops,当前各种预训练语言模型还在快速的更新迭代,不断刷新自然语言处理任务的表现记录,单一模型的训练算力需求也不断突破新高。另外,大模型的日常运行中每一次用户调用都需要一定的算力和带宽作为支撑,单次推理的计算量为2*模型参数量,例如1750亿参数的GPT-3模型1k tokens的推理运算量为2*1750*108*103=3.5*1014 flops=350 Tflops,假设ChatGPT访问人数450万人,每小时每人提问8次,每次需回答200字,则需要14000块英伟达A100芯片进行日常的算力支撑。
算力是大模型的根基,也是AI大模型及其AI Agents发展率先受益的方向,预计到2030年AI算力有望增长500倍。基于Transformer体系结构的大型语言模型涉及高达数万亿从文本中学习的参数,所使用的数据量和参数规模呈现“指数级”增长,远超过算力产业的摩尔定律增速,参数和数据规模的增长带来的是算力消耗增加。因此,未来的大模型所消耗的算力大概率将远超过目前已有的大模型,根据华为的预测,到2030年,全球AI算力有望增长500倍,超过100Zflops。
图10:Transformer模型消耗的算力远超过摩尔定律
资料来源:A Survey of Large Language Models,国海证券,利得研究院
图11:大语言模型(LLM)产业链
资料来源:国海证券,利得研究院
AI Agents发展对算力产业链提出更高要求,主要包括计算、存储和网络三部分。AI Agents本质上是是在大模型基础上的集成化应用,因此AI Agents也对算力等提出了更高的要求。1)计算:深度学习模型,尤其是深度神经网络,通常包含大量的参数和层次结构。而AI Agents涉及到深度学习和更大规模数据处理的任务。为了训练这些模型,需要进行大量的矩阵运算。因此将对计算能力提出更高的要求。且AI Agents通常需要处理大规模的数据集,以便学习和进行推断。2)存储:随着数据量的增长,存储数据的能力也至关重要。不同的AI Agents需要什不同类型的存储,其取决于人工智能水平以及它们是否需要做出实时决策等。3)网络:深度学习算法高度依赖通信,如果AI Agents需要从云端获取数据或利用分布式计算资源,稳定而高速的网络连接将非常重要。因此,网络是AI Agents的基础设施的另一个关键组成部分。
图12:2022-2026年全球AI服务器出货量预估
资料来源:Trendforce,利得研究院
图13:2021年中国AI服务器品牌商竞争格局
资料来源:IDC,利得研究院
2.1.2 AI芯片:AI算力核心
AI芯片部署的位置有两种:云端、终端。根据部署的位置不同,AI芯片可以分为:云AI芯片、端AI芯片。云端,即数据中心,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。终端,即手机、安防摄像头、汽车、智能家居设备、各种IoT设备等执行边缘计算的智能设备。终端的数量庞大,而且需求差异较大。当前,大多数AI训练和推理工作负载都发生在公共云和私有云中,云仍是A1的中心。但在对隐私、网络安全和低延迟的需求推动下,云端出现了在网关、设备和传感器上执行AI训练和推理工作负载的现象。为了解决这些问题,将需要更高性能的计算芯片及新的AI学习架构。互联网是云端算力需求较旺盛产业,因此除传统芯片企业、芯片设计企业等参与者外,互联网公司纷纷入局AI芯片产业,投资或自研云端AI芯片。
AI的实现包括两个环节:训练、推理。在AI实现的过程中,需要训练、推理两个过程。1)训练是指通过大数据训练出一个复杂的神经网络模型,使之可以适应特定的功能。其需要极高的计算性能,能处理海量的数据,较高的精度,并拥有通用性以便完成各种各样的学习任务。训练芯片受算力约束,一般只在云端部署。CPU由于计算单元少,并行计算能力较弱,不适合直接执行训练任务,因此训练一般采用“CPU+加速芯片”的异构计算模式。目前NVIDIA的GPU+CUDA计算平台是最成熟的AI训练方案,除此还有两种方案:第三方异构计算平台OpenCL + AMD GPU或OpenCL + Intel/Xilinx FPGA。以及云计算服务商自研加速芯片,如Google的TPU。2)推理则是指利用训练好的模型,利用新的输入数据来一次性获得正确结论的过程。推理相对来说对性能的要求并不高,但由于推理的结果直接提供给终端用户,因此更关注用户体验方面的优化。
图14:人工智能芯片训练方案及代表公司
资料来源:公开资料整理,利得研究院




存储领域重点关注HBM。
AI服务器对存储器容量和价值量均有显著拉动。AI服务器用到的主要存储器包括 CPU内存、GPU显存和硬盘NAND,与普通服务器类似,CPU的运行数据写入DRAM ,CPU和GPU产生的数据共同写入NAND 。容量方面,对于DRAM:英伟达的AI训练服务器中CPU DRAM容量达2TB,单个GPU一般搭载80GB以上HBM存储器,HBM总容量预计超 640G,相比于普通服务器,总内存量有4-8倍的提升;对于NAND:普通服务器配备较多的机械硬盘,AI服务器主要配备固态硬盘,其硬盘容量大约30TB,存储量较普通服务器有2-4倍的提升。价值量方面,根据招商证券测算,AI服务器中CPU内存和SSD的价值量相较于普通双路服务器预计均提升5倍左右,
HBM已普遍搭配AI训练芯片使用,AI服务器对HBM需求拉动预计超百亿美元。HBM全称为High Bandwidth Memory,是一种基于2.5/3D封装的新型的存储技术,旨在提高内存带宽并解决内存墙问题。与其他内存技术相比,HBM 具有以下优势:1)高带宽:HBM采用3D堆叠技术,将多个DRAM芯片垂直堆叠在一起,从而实现了更高的数据传输速率和更低的延迟。2)低功耗:HBM采用了更先进的工艺和设计技术,能够在相同的带宽下消耗更少的电力;3)高密度:HBM 能够在更小的空间内提供更高的存储容量,从而减少了系统的体积和重量;4)高可靠性:HBM 采用了更先进的封装技术,能够提供更好的抗干扰能力和更高的可靠性;5)更好的可扩展性:HBM支持多个堆叠层的组合,可以根据需要增加存储容量和带宽。目前,HBM已普遍搭配AI训练芯片使用,例如英伟达A100中单个GPU搭载80GB容量的HBM2E,H100中单个GPU搭载了80GB容量的HBM3,随着AI服务器渗透率提升、单个AI服务器中GPU数量的提升、单个GPU搭载的HBM Stack数量增加以及HBM堆叠层数和容量的提升,HBM的需求增量有望显著提升。根据招商证券测算,2024年AI服务器有望带动HBM超百亿美金增量市场。
网络通信领域重点关注传输载体光模块。
网络通信是算力的瓶颈之一,通信带宽的提升速度远低于计算提升速度。算力主要取决于GGPU的计算速度,但GGPU的利用率一般仅为10%-30%,而利用率的瓶颈就在于通信。AI模型参数量和训练用数据量大,需要多个GPU和多台服务器并行计算,因此这对数据传输(即通信)就有了更高的要求。近20年,设备的算力提高了9万倍,但是通讯带宽的增长只有30倍,通信带宽的提升速度远低于计算提升的速度。
光模块可以通过提升外部通信效率来提升算力的整体利用效率。目前,数据中心的通信包括两类:内部通信和外部通信。其中,内部通信发生在多个GPU之间、GPU和 CPU之间以及GPU、CPU和DRAM之间,主要依赖于PCIe;外部通信则是指服务器、交换机、路由器和存储设备之间的通信,主要依赖铜缆和光缆,其中光模块是光通信的必要部件,其发送端把电信号转换成光信号,中间段以光缆传输,接收端再把光信号转换成电信号,因此,光模块可以通过提升外部通信效率来提升算力的整体利用效率。
宏观周期重回“底部过渡+双宽”阶段,行业配置上科技弹性较大。11月以来,市场情绪有所好转,但股权风险溢价依旧维持高位。后续美联储加息预计见底在即,年末政策有望出台的背景下,后续市场或继续修复。双宽格局下,仍利好科技等高弹性行业。可考虑受益于基本面修复及预期反转,以及新一轮产业周期崛起且具备高波动特征的科技制造作为进攻方向,算力产业链也是科技制造的重点关注领域之一。
国内外大模型发展迅速, AI Agents或成为大模型的下一个爆发点,而算力是大模型的根基,也是AI大模型及其AI Agents发展率先受益的方向。国内外大模型发展迅速,但当前大模型厂商面临的问题就是没有足够高质量的生态给大模型厂商付费,大模型厂商亟需在应用端发力来实现价值闭环,即从“有大模型”进化到“用大模型”。AI Agents是大模型的间接应用,也是大模型实现商业化闭环的重要路径。大模型的训练环节、日常运行的推理环节均需要大量算力,AI Agents涉及到深度学习和更大规模数据处理的任务,因此也对算力等提出了更高的要求。算力是大模型的根基,也是AI大模型及其AI Agents发展率先受益的方向,根据华为的预测,到2030年,全球AI算力有望增长500倍,超过100Zflops。
长期来看,算力产业链领域可以重点关注三大方向:1)计算:关注AI服务器、国产GPU及华为昇腾产业链;2)存储:关注“内存墙”破局者HBM;3)网络:关注传输核心器件光模块。指数方面,建议关注人工智能ETF。

风险提示
投资有风险。基金的过往业绩并不预示其未来表现。基金管理人管理的其他基金的业绩并不构成基金业绩表现的保证。相关数据仅供参考,不构成投资建议。投资人请详阅基金合同等法律文件,了解产品风险收益特征,根据自身资产状况、风险承受能力审慎决策,独立承担投资风险。
重要声明
阁下/贵方接受、阅读或使用本文件即表明阁下/贵方已事先及无条件接受以下“重要声明”所载之条款和条件:
本文件系为利得基金备制,本文件中的信息仅作参考之用,不构成任何具有法律约束力之产品投资要约或要约邀请,并且不可用于对投资的评估。
本文件所载信息仅为初步提示,利得基金从未表述或保证本文件中的信息的完整性和准确性,接受或使用者亦不得对其完整性和准确性提出要求。即使本文件所有信息系已尽最大的谨慎提供、选择和校验,利得基金对于信息的完整性以及内容的正确性亦不承担任何责任。
本资料仅为宣传用品,本机构及工作人员不存在直接或间接主动推介相关产品的行为,不构成投资建议。
保密条款
本文件中的信息均为保密信息,未经利得基金书面事先同意,不得为任何其它目的,整体或部分地使用、复制或传播本文本中所含信息。
未经事先书面许可,本文件不可被复制或分发,本文件内容亦不可向任何第三者披露,仅供特定范围内的资深专业投资人士使用,不得用作它途。一旦接收或阅读本文件,阁下/贵方应被视为已经接受此项保密条款。