首页研究报告行业研究人工智能AIGC行业全景篇:算力、模型与应用的创新融合
天问

文档

3932

关注

0

好评

0
PDF

AIGC行业全景篇:算力、模型与应用的创新融合

阅读 614 下载 44 大小 2.96M 总页数 0 页 2024-12-09 分享
价格:¥ 9.90
下载文档
/ 0
全屏查看
AIGC行业全景篇:算力、模型与应用的创新融合
还有 0 页未读 ,您可以 继续阅读 或 下载文档
1、本文档共计 0 页,下载后文档不带水印,支持完整阅读内容或进行编辑。
2、当您付费下载文档后,您只拥有了使用权限,并不意味着购买了版权,文档只能用于自身使用,不得用于其他商业用途(如 [转卖]进行直接盈利或[编辑后售卖]进行间接盈利)。
3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。
4、如文档内容存在违规,或者侵犯商业秘密、侵犯著作权等,请点击“违规举报”。
招商银行研究院行业研究·深度报浩CHINA MERCHANTS BANKINSTITUTE2024年11月8日AIGC行业全景篇算力、模型与应用的创新融合■人工智能的发展历程与IGC的市场机海。人工智能的发展经历了三次浪潮,从最初的逻辑推理和专家系统,到机器学习和深度学习,人工智能技术不断演胡国栋进。AIGC利用生成式AI技术,创造出多样化的内容,展示出巨大的商业潜力。AICC产业链可划分为基础层、模型层和应用层。预计到2030年,AICC市场规模行业研究贡将增至9810亿美元,推动全球经济增长4.9万亿美元,累计产生的经济影响达到:0755-8316926919.9万亿美元。☑:huguodong(@cmbchina.com■基础层:川©C的快速发展推动算力需求激增,算力存储网络成为投资的主赛道。随者AIGC技术的快速发展,特别是基于Transformer的大模型对算力需求急剧增加,全球互联网巨头纷纷加大对AIGC基础设施的投资,以推动创新和保持竞争优势。GPU系统、HBW存储和高性能网络基础设施在AIGC计算中发挥若关键作用,满足了对高速并行计算的需求,成为硬件基础设施投资的主赛道。■模型层:算法进步、性能成本优化与商业模式多元化的融合。AIGC技术的进相关研究报告步得益于生成算法、预训练模型和多模态技术的创新。在大语言模型的竞争中,性能和成本是两个核心要素,性能的提升和成本的降低使得AIGC的应用更加广泛。AIGC公司通过订阅服务、API接入等多元化商业模式来拓展收入渠道,从而增强自身的市场竞争力。随着企业逐渐认识到AIGC技术的潜力,预计BB服务将在整体AICC市场中占据主导地位。全球大语言模型市场将显著增长,OpenAI凭借ChatGPT的成功在市场上处于领先地位,而科技巨头如微软、亚马逊和谷歌也正通过技术创新和产品整合来追赶。■应用层:技术创新应用推动市场发展和行业变革。AIGC技术正推动ToC和ToB领域的创新与多元化应用,覆盖Chatbot、社交、游戏和内容创作等多个场景,并在企业层面提供提高效率、降低成本的解决方案。在电子设备领域,AIGC技术引发革新,特别是在智能手机、汽车和人形机器人的智能化创新中表现突出。各类AIGC应用爆发式增长,其中AI广告市场份额最大,药物研发、网络安全和IT服务市场增速最快。■业务建议。随若市场需求的不断增长,AIGC应用有望在多个行业实现突破,带来长远的发展机会,建议重点关注AIGC应用的长期机会。(本部分有删减,招商银行各行部请参照文末联系方式联系研究院)■风险提示。(1)伦理道德的风险。(2)技术缺陷的风险。(3)监管与法律的风险。(4)商业化不确定的风险。(5)市场竞争加剧的风险。(6)宏观经济波动的风险。招商银行研究院行业研究·深度报结CHINA MERCHANTS BANKINSTITUTE目录12生成式技术推动内容创作的变革与大语言模型的发展...…39121832性能与成本:大语言模型竞争的核心驱动力.…214.应用层:技术创新推动应用市场发展和传统行业变革..…..2642AIGC技术驱动电子设备革新,大棋型引领手机、汽车与机器人智能化创新....285,业务建议与风险提示5.1业务建议:优先关注产品成熟度高的细分领域和AIGC应用的长期机会321/3招商银行研究院行业研究·深度报浩CHINA MERCHANTS BANKINSTITUTE图目录图1:人工智能发展历史时间线图2:人工智能技术发展经历三次浪潮图3:人工智能技术略线关系图图4:AIGC与大型AI模型的关系35图7:2020-2032年A1GC市场规模6图8:2020-2032年A1GC硬件市场规模7图9:2020-2032年A1G0软件市场规模7图10:A1GC大模型对算力需求持续快速增长.8图11:海外互联网巨头资本支出飘升9图12:中国GC市场资本支出预测…10图13:全球AIGC GPU和ASIC市场规模预测图14:A1 GC GPU市场份额(2023年)1213图16:HB技术路线图…13图17:存储行业全球市场规模预测(2023-2029)14图18:DRAM全球市场份额(2023)图19:HBW全球市场规模图20:HBM全球市场份额(2023).15图21:A1GC发展推动数据中心向800G以上速率发展图22:全球光模块市场预测…17图23:A1集群光模块市场预测.17图24:预训练模型BERT结构图国25:典型多模态大模型架构示意图21图26:大模型训练性能不断提升22图28:A1GC训练软件成本趋势.22图29:GPT API推理成本快速下降23图30:A1GC大模型长期潜在市场与收入结构预测2525图32:中国大语言模型市场规模预测图33:大语言模型市场份额(2023年)26图34:A1GC推动大模型与电子设备智能化升级29图35:特斯拉FS0自动驾驶略径规划.302/3招商银行研究院行业研究·深度报浩CHINA MERCHANTS BANKINSTITUTE图36:2024年全球主流人形机器人图37:2022-2032年A1GC应用市场规模31图38:A1GC应用市场份额(2023年)3232表目录表1:LLM模型对GPU算力需求持续提升8表2:英伟达主流GPU产品性能对比表3:英伟达GPU与光模块需求测算16表4:全球T0P10光模块厂商排名.17表5:主流生成算法模型…19表6:常见的AIGC应用场景.表7:全球AIGC应用排名(2024年9月)283/3招商银行研究院行业研究深度报浩INSTITUTEAIGC是一种基于生成式AI技术的新型内容创作方式。本篇报告围绕AIGC的发展历程与市场机遇、算力基础设施的发展趋势、大模型算法与商业模式的融合以及AIGC应用市场的创新发展来分析AIGC产业链的相关机会,最后阐明商业银行在AIGC赛道的业务机会与风险。1.人工智能的发展历程与AIGC的市场机遇1.1人工智能产业发展历程,从图灵测试到生成式AI的演进人工智能(Artificial Intelligence,AI)作为计算机科学的一个重要分支,旨在深入探讨智能的本质,创造出能够模拟人类思维与反应的智能机器。经过多年的不断进化,人工智能如今已演变为一门涵盖机器人技术、语言识别、图像识别、自然语言处理及专家系统等多个研究领域的综合性学科。人工智能的历史可以追溯到20世纪50年代。1950年,被誉为“人工智能之”・灵(Alan Turing)出了著图,借助“”与“答”的方式来评估机器是否具备智能。1956年,约翰·麦卡锡(JonMcCarthy)在达特茅斯会议上首次正式提出“人工智能”这一术语,这一时刻标志着人工智能作为一门独立学科的诞生。图1:人工智能发展历史时间线艾伦·图灵提出图开发第一个薄天机助理使用语音识别回答构预测获得“2024能的重要标准器人E1iza经网锋进行机器学习1982201119501956196419805199720022011201420202022202419852014创建了模人类专在电视节目Jeopardy伊恩·古德费洛提出ChatGPT公开测试家决策的专家系统军卡斯帕罗夫人工智能的发展历程可以划分为三次浪潮,从最初的逻辑推理和专家系统,到机器学习和深度学习,人工智能技术不断演进。第一次浪潮(1950s-1970s)期间,研究主要集中在利用符号逻辑和推理来模拟人类智能,然而由于对技术能力的期望过高与实际进展之间的落差,到70年代中期,人工智能进入了“第一次AI之冬”。在第二次浪潮(1980s-2000s)期间,随着计算能力的提升和知识表示技术的发展,专家系统在80年代兴起,能够模拟特定领域的专家决策能力。90年代,机器学习这一分支迅速崛起,使计算机能够从数据中1/33招商银行研究院行业研究深度报浩CHINA MERCHANTS BANKINSTITUTE学习并不断改进。第三次浪潮(2010s-至今)以来,现代人工智能技术广泛应用,如卷积神经网络(CNN)、递归神经网络(RNN)和生成对抗网络(GAN)等,特别是在自然语言处理(NLP)领域的突破,例如BERT和GPT系列模型,使得机器在理解和生成自然语言方面取得了显著进展。机器学习是人工智能的一个重要分支,使计算机系统能够从数据中汲取知识,进而做出预测或决策。该领域涵盖多个子领域,包括监督学习、无监督学习和强化学习等。监督学习通过利用带标签的训练数据来训练模型,使其能够对未见过的数据进行标签预测,常见算法有逻辑回归、支持向量机(SVM)、决策树和随机森林、神经网络等。无监督学习处理未标记的数据,旨在发现数据的内在结构或模式,常见的算法包括K-均值聚类、层次聚类和主成分分析(PCA)等。强化学习通过与环境的交互学习如何采取行动,以实现长期奖励最大化,常见算法包括Q学习、Sarsa和深度Q网络(DQN)等。机器学习的应用领域非常广泛,涵盖自然语言处理、计算机视觉、医疗健康、金融及推荐系统等多个领域。图2:人工智能技术发展经历三次液潮图3:人工智能技术路线关系图人工智能机器学习监督学习人工智能机器学习深度学习深度学习ChatGPT生成式AI1950>1960>1970>1990>1990>2300>2010>2020>2030大语言模型无监督学习强化学习资料来源:infoDiagram、招商纸行研究院资料来源:CSDN、招商银行研究院深度学习作为机器学习的一个重要分支,专注于利用深层神经网络解决复杂问题。它受人脑生物神经网络的启发,构建了由许多简单神经元组成的系统。每个神经元负责接收输入信号,进行加权求和,并通过激活函数生成输出。深度学习通过多层次的神经网络结构,能够自动提取数据的深层次特征。常见的算法包括前馈神经网络(FNNs)、卷积神经网络(CNNs)、循环神经网络(RNNs)以及Trans former等。深度学习的应用领域广泛,涵盖图像识别、语音识别、自然语言处理、生成模型、游戏与强化学习等,已成为当今人工智能技术的核心驱动力。2/33招商银行研究院行业研究深度报浩CHINA MERCHANTS BANKINSTITUTE生成式AI(Generative AI)作为深度学习的一个重要分支,是一种能够基于用户请求创造原创内容的人工智能技术。它通过深度学习模型识别现有内容的模式和结构,这些模型在未标记的原始数据上进行训练,旨在发现并编码大量数据中的模式与关系,以理解自然语言请求并生成相应的新内容。生成式AI的应用领域极为广泛,涵盖文本生成、图像合成、音乐创作以及语音合成等多个方面。1.2生成式A!技术推动内容创作的变革与大语言模型的发展AIGC(Artificial Intelligence Generated Content)是一种利用生成式AI技术自动创作内容的新型生产方式。与传统AI主要关注于识别和预测现有数据模式不同,AIGC则专注于创造全新的、有创意的数据。其核心原理在于学习和理解数据的分布,从而生成具有相似特征的新数据,能够生成文本、图像、音频、视频等多种形式的内容。生成式AI(Generative Al)大AI模型(Large Al Model)大语言模型(Large Language Model)GPT-3.5大多态模型(Large Multimodal Model)GPT-4大视觉模型(Large Visual Model)DALL-E2AIGC涵盖了利用生成式AI技术生成的多种类型内容,而大型AI模型则是实现AIGC的重要技术手段。生成式AI通过深度学习模型在大数据集上进行训练,以创造新的文本、图像和音乐等多样化的内容。AIGC不仅包括生成式AI算法,还涉及自然语言处理、计算机视觉(CV)和音频处理等核心技术。在生成式AI的框架中,大型AI模型发挥着至关重要的作用,通常采用大量参数的神经网络架构,主要包括大语言模型(LLM)、大多模态模型(LMM)和大视觉模型(LM)。其中,大语言模型是最为核心的类型,包含数十亿以上参数的深度神经网络语言模型,运用自监督学习方法,通过大量未标注的文本进行预训练,从而掌握语言的复杂结构。需要注意的是,并非所有的大语言模型都专3/33招商银行研究院行业研究深度报浩INSTITUTE注于生成任务,有些模型(如BERT)更适合理解任务,而其他模型(如GPT系列)则更擅长生成任务。大语言模型的发展经历了基础模型、能力探索和突破发展三个阶段。2017年,Vaswani等人提出的Transformer架构为大语言模型的演进奠定了坚实基础。自2018年以来,Google、0 penAI和Meta等公司相继推出了多种大语言模型,如OpenAI的GPT系列、Google的Gemini和Meta的LLaMA系列,推动了这一领域的迅猛发展。T5GShard开源模型2020mT5PanGu--年Ernie 3.02021PLUGJurassic-1GPT-3CodexCPM-2FLANLaMDAHyperCLOVAAlphaCodePythiaWebGPTVicunaInternLMBaichuan2Ernie 3.0 Titan2022RWKVPanGu-EMPTQWENGopherCodeGenUL2SparrowBardBaichuanFLMGLaMMT-NLGPaLMOPTFlan-T5LLaMAPaLM2Aquila2CodeGeeXYaLMGPT-NeoX-20BCodeGen2SkyworkBLOOMTk-InstructLuminousGLMStarCoderXVERSECohereNLLBAlexaTMFalcon11-12Grok-1BLOOMZ2023WeLMGalaticaOPT-IMLChatGPTGPT-4LLaMA2资料来源:《A Survey of Large Language Models》、招商银行研究院在基础模型阶段(2018年至2021年),研究主要集中在语言模型本身,Google的BERT和OpenAI的GPT-1标志着预训练语言模型时代的开启,模型参数量实现了数量级的提升,从GPT-1的1.17亿增加到GPT-3的1750亿,这使得大模型在自然语言任务中的表现极为出色。在能力探索阶段(2019年至2022年),研究者们探索如何在不针对单一任务进行微调的情况下,充分发挥大语言模型的能力,随后引入指令微调方案(Instruction Tuning),使模型在特定任务上的表现更加精准,同时保留了在其他任务上的泛化能力。在突破发展阶段(2022年11月至今),大语言模型向多模态持续进阶,模型能力不断扩展,从文本生成延伸到图像和视频生成。自ChatGPT于2022年推出以来,它迅速在全球范围内引发了AIGC的广泛关注与应用热潮。以ChatGPT为起点,一个大语言模型即可实现回答问题、文稿撰写、代码生成和4/33招商银行研究院行业研究深度报浩CHINA MERCHANTS BANKINSTITUTE数学解题等多项能力,这在过去需要多个小模型才能分别实现。GPT-4作为一款开创性的多模态模型,凭借其卓越的综合实力成为行业标杆,后续推出的GPT-4V、GPT-4-Turbo和GPT-4o在性价比上不断提升。此外,Sora文生视频模型能够根据文本提示生成视频内容,并对现有图像或视频进行编辑和扩展。1.3AIGC产业链结构与未来市场增长展望AI产业链可分为基础层、模型层和应用层三个层面。基础层提供AI运行所需的底层算力资源和数据资源,其中算力资源涵盖AI芯片、存储、网络、安全及基础设施软件,数据资源则包括AIGC模型训练和优化所需的大量高质量多模态数据,以及数据分类、标记和清洗过滤的技术手段。模型层负责开发和优化模型算法,包括通用AIGC模型、行业应用微调模型,以及监督学习、无监督学习和强化学习等训练模型。应用层则涵盖针对企业的专用模型应用和针对个人用户的个性化服务,涉及文本、图像、音频、视频及多模态内容等多个应用服务方向。图6:AIGC产业链生态体系应用文本图像音频视频机器人多模内容专用模型应用(ToB)个性化服务(ToC)模型层模型预训练大模型RLHF强化学习微调Transformer模型算法监督学习无监督学习深度学习CoT思维链数据资源多模态数据数据标注数据过滤基础层算力资源AI芯片Al存储AI网络AICC技术展现出巨大的商业潜力,将成为全球经济增长的重要推动力。根据IDC的研究,到2030年,与商业相关的AI解决方案每投入1美元,预计将为全球经济带来4.60美元的直接和间接经济效应。预计到2030年,企业在采用AI、将AI融入现有业务运营,以及向企业和消费者提供AI产品和服务的支出,将推动全球经济增长4.9万亿美元,累计产生的经济影响达到19.9万5/33招商银行研究院行业研究深度报浩INSTITUTE亿美元,占全球GDP的3.5%。彭博情报预测,随着ChatGPT等AIGC应用的快速增长,AIGC市场有望从2022年的370亿美元增长至2032年的1.36万亿美元,年均复合增长率达到43%。此外,AIGC在信息技术硬件、软件、服务和广告等领域的支出占比将从2022年的1%提升至2032年的12%。图7:2020-2032年A1GC市场规模(SB)AIGC收入一AIGC在科技行业支出占比160025%13611400116620%1200981100079015%8006112%60045710%4003402192001285%1118376400%2020202120222023202420252026202720282029203020312032受益于大模型算力需求,AIGC硬件市场预计将迎来显著增长。随着AIGC大模型参数量的快速增加、数据规模的扩展以及对长文本处理能力的提升,算力的需求持续上升。彭博情报预测,AIGC硬件市场将从2022年的350亿美元增长至2032年的6400亿美元,这一增长趋势反映了AIGC技术在训练和推理两个关键环节对算力资源的强大需求。在训练阶段,AIGC模型需要处理和分析庞大的数据集,这通常要求大量算力资源。预计训练硬件市场规模将从2022年的320亿美元增长到2032年的4710亿美元,年均复合增长率为31%。而在推理阶段,通常需要较低功耗和成本的算力资源来满足用户终端的需求,预计推理硬件市场的增速将更高,从2022年的30亿美元增长至2032年的1690亿美元,年均复合增长率达到48%。受益于AIGC对行业创新和效率的提升,AIGC软件应用日益广泛。AIGC技术正在改变影视、游戏、漫画和网络文学等领域,通过自动化和优化任务来提高生产效率并促进创意发展。例如,Gi tHub Copilot基于OpenAI技术,向开发人员提供编码建议,从而减少编程时间,提高开发效率。集成AIGC助手正在成为软件行业的趋势,能够通过自动化和优化多种任务增强用户的工作效率。彭博情报预测,AIGC软件市场将从2022年的10亿美元增长至2032年的3180亿美元,年均复合增长率高达71%。6/33招商银行研究院行业研究深度报浩INSTITUTE图8:2020-2032年A1C0硬件市场规模图9:2020-2032年A1GC软件市场规模■训练■推理($B)AIGC软件枚入AIGC在软件市场占比40012%60031850030026110%4002048%30020014920010010015112237620资料来源:Bloomberg Intelligence、招商铱行研究院2.基础层:大模型的技术发展推动算力需求激增,算力存储网络成为投资的主赛道2.1AIGC技术迅猛发展引发算力需求激增随着AIGC技术的迅猛发展,尤其是以Transformer为基础的大模型,对算力的需求激增。这些先进模型在训练和推理过程中,需要巨大的计算资源,包括高性能GPU、高速存储以及高速通信网络。自2017年Transformer模型问世以来,它已成为构建大型语言模型的基石。该模型摒弃了传统的循环神经网络结构,通过自注意力机制处理序列数据,实现了对整个数据序列的并行处理,从而显著提升了训练和推理的效率。然而,这一技术进步也带来了对更高算力的迫切需求,进而增加了模型训练和部署的成本。根据英伟达的数据显示,在引入Transformer模型之前,算力需求每两年增长约8倍:而采用Transformer模型后,这一数字飙升至每两年增长约275倍。为了满足不断攀升的算力需求,数据中心正朝着超大规模的发展方向迈进,以提供更强大的计算能力和更优越的可扩展性。同时,AI服务器集群也在快速迭代与升级,以确保能够满足日益增长的算力需求。根据Scaling-laW法则,大语言模型的性能随着模型参数量、训练数据量和计算资源的增加而显著提升。从大模型的算力需求来看,随着参数规模、Token数量以及训练所需算力的同步增长,模型性能不断提升。以GPT-4为例,其参数量从GPT-3的约1750亿提升至约1.8万亿,增幅超过10倍:而训练数据集的规模也从GPT-3的几千亿Token扩大到13万亿Token。.这种规模上的提升使得GT-4在处理复杂问题和生成自然语言文本方面的能力得到了极大的增强。7/33招商银行研究院行业研究深度报浩INSTITUTE图10:AIGC大模型对算力需求持续快速增长Before Transformers=8X/2yrsMegatron-Turing109Transformers=275x/2yrsNLG 530BMicrosoft T-NLG107XLNet.Wav2Vec 2.0XceptionMoCo ResNet50105InceptionV3●BERT LargeGPT-1104Resnet●◆TransformerResNeXt.ELMo103DenseNet201●AlexNet10220122013201420152016201720182019202020212022资料来源:英伟达、招商纸行研究院随着AIGC大模型性能的显著提升,对计算资源的需求也呈现出指数级的增长。以GPT-4为例,其训练过程需要约2.15e25FL0PS的运算量,这通常需要动用约25000块A100GPU,且训练周期长达90至100天。此外,数据采集、模型优化和强化学习等环节的额外开销,使得整体成本变得更加高昂。根据斯坦福大学2024年发布的AI指数报告,AIGC模型的训练成本正在急剧上升,GPT-4的成本从2022年GPT-3的大约430万美元激增至2023年的7835万美元。随着模型的不断扩展和训练过程的日益复杂,这些成本预计将继续攀升。1:LLM樸型对GPU算力需求持续提升Token规GPUGPU算力GPU利GPUZ FLOPS类型TFLOPS/s时间GPT-3175300420H10016000.31周1447OPT175300430H10016000.31周1482LLaMA651400600H10016000.31周2067LLaMA2342000400H10016000.31周1378LLaMA2702000800H10016000.31周2756GPT-418001300021500H10016000.31周1074748/33招商银行研究院行业研究深度报浩CHINA MERCHANTS BANKINSTITUTE2.2互联网巨头加速A1GC投资,以推动创新和竞争根据海外互联网巨头的资本开支计划,亚马逊、微软、谷歌和Meta等公司正在持续增加对AIGC基础设施的大规模投资。2021至2023年间,这些公司的总资本支出达到4670亿美元,年均约1550亿美元。在2024年第二季度,资本支出达到520亿美元,同比增长54%,主要用于数据中心的AIGC建设,以推动产品转型和技术升级。展望未来,预计在2024至2027年间,这四家公司将投入总额8500亿美元,年均2125亿美元,助力在竞争激烈的AIGC市场中保持领先地位并推动创新与增长。图11:海外互联网巨头资本支出飘升Capital expenditures■Amazon Web Serviceseta020202022023资料来源:GeekWire、招商桀行研究院从海外互联网巨头的管理层表态来看,针对AIGC领域的高额资本支出将持续一段较长时期。Meta CEO马克·扎克伯格强调维持AI行业领头羊地位的紧迫性,并警告投资不足可能在未来10至15年内使Meta处于竞争劣势。谷歌CE0桑达尔·皮查伊表示,公司倾向于超额投资,以确保抓住AI领域的收入机会,即使面临一定的资源过剩风险。亚马逊C℉0布莱恩·奥尔萨夫斯基预计,2024年下半年资本支出将持续增长,主要投资用于满足AIGC及非生成式AI技术的市场需求。微软CF0艾米·胡德则宣布,将加大AI基础设施建设投入,预计在2025财年刷新资本支出记录,以应对不断攀升的AIGC和云服务产品需求。无论是在全球还是中国市场,AIGC领域的投资都在迅速增长。IDC数据显示,全球AI资本支出预计将从2022年的1325亿美元增长到2027年的5124亿美元,年均复合增长率为31.1%。在中国市场,AI资本支出同样展现出强劲的增长势头,预计将从2022年的128亿美元增至2027年的400亿美元,年均复合增长率为25.6%。中国将在亚太地区人工智能市场发展中继续发挥引领作用,其AI资本支出占亚太地区总支出的50%。9/33招商银行研究院行业研究深度报浩INSTITUTE45,00040.00035,000409%30.00035%25,00020,00025%15.00010.0005,0005%00202220232024202520262027资料来源:IDC、招商纸行研究院2.3算力:GPU引领AIGC技术革新,市场需求持续增长当前,人工智能领域的AI芯片家族日益壮大,主要包括GPU(图形处理器)、FPGA(现场可编程门阵列)、ASIC(专用集成电路)和NPU(神经拟态芯片)。其中,GPU和FPGA属于成熟的通用型AI芯片,而ASIC则为特定AI场景定制,如谷歌的TPU、亚马逊的Trainium和微软的Maia。GPU最初设计用于加速图形渲染和显示,广泛应用于游戏、视频制作和处理等领域。随着时间推移,因其在并行处理密集数据方面的卓越能力,GPU逐渐成为AI领域的重要推动力,尤其是在深度学习训练中。其核心性能指标包括算力、显存、功耗和互联能力,成为推动AIGC发展的核心力量。英伟达的GPU产品在AICC的发展历程中扮演了至关重要的角色,其成功源于在硬件性能和软件生态方面的持续投入与创新。在硬件领域,英伟达推出了Volta、Turing、Ampere、Hopper和Blackwell等系列架构,这些架构配备了专为深度学习设计的CUDA Core和Tensor Core,显著提升了AI训练与推理的效率。CUDA Core负责基础运算,其数量通常与FP32计算单元相对应:而Tensor Core则在Volta及后续架构中引入,专门用于张量计算,与深度学习框架(如TensorFlow和PyTorch)结合使用,带来了十几倍的效率提升。除了硬件创新,英伟达还构建了全面的GPU软件生态系统,包括CUDA、cuDNN和TensorRT等工具,大大简化了AIGC模型的开发和部署流程,使得AIGC技术的应用更加高效便捷。表2:荚伟达主流GPU产品性能对比10/33招商银行研究院行业研究深度报浩CHINA MERCHANTS BANKINSTITUTEA100H100H200GB200AmpereHopperHopper发布时间2020202220232024FP649.7 TFLOPS34 TFLOPS34 TFLOPS40 TFLOPSFP64 Tensor Core19.5 TFLOPS67 TFLOPS67 TFLOPS90 TFLOPSFP3219.5 TFLOPS67 TFLOPS67 TFLOPS180 TFLOPSTF32 Tensor Core312 TFLOPS989 TFLOPS989 TFLOPS5 PFLOPSBFLOAT16 Tensor624 TFLOPS1979 TFLOPS1979 TFLOPS10 PFLOPSFP16Tensor Core624 TFLOPS1979 TFLOPS1979 TFLOPS10 PFLOPSFP8 Tensor Core3958 TFLOPS3958 TFLOPS20 PFLOPSINT8 Tensor Core1248 TFLOPS3958 TFLOPS3958 TFLOPS20 PFLOPSGPU内存80 GB80 GB141GB384GBGPU内存带宽2.04 Tbps3.35 Tbps4.80 Tbps16Tbps互联技术NVLink:600 GB/sNVLink:900GB/sPCle Gen4:64GB/sPCleGen5:128GB/sPCleGen6:256GB/s资补来源:英伟达、招商纸行研究院随着AICC技术在多个行业中的广泛应用,对GPU和ASIC算力的需求持续增加。全球数据中心GPU市场在近年来显著扩张,2023年出货量达到385万颗,较2022年的267万颗增长了44.2%。预计在经历2023年和2024年的大幅增长后,全球AIGC GPU和ASIC市场将保持稳定增长。根据Yole的预测,该市场规模将从2023年的505亿美元增至2029年的2330亿美元,复合年均增长率达到29.0%。英伟达作为GPU市场的领导者,其产品在AIGC训练和推理市场占据主要份额。英伟达不断推出新的GU架构和软件产品,每一代产品都在性能和能效方面持续提升,其2023年数据中心GPU销售收入达到了362亿美元,根据IoT Analytics的数据,市场份额达到92%。与此同时,AMD和英特尔也在数据中心GPU市场占有一席之地,AMD的MI300系列获得了微软、Meta等订单,市场份额达到3%:英特尔的Gaudi2则提供高性能且具成本效益的解决方案。此外,一些新兴参与者也在进入市场,推动技术创新与产品多样化。11/33
文档评分
    请如实的对该文档进行评分
  • 0
发表评论

特惠

限量优惠活动

正在火热进行

站长

添加站长微信

领取运营礼包

下载

便携运营智库

立即下载APP

导航

运营工具导航

AI工具导航

AI

AI运营助手

帮助

帮助中心

常见问题

顶部