AI服务器行业规模:未来较长一段时间内,我国AI服务器市场维持供不应求状态

作者:小编 更新时间2023-12-26 08:36:55 点击数:

今年以来,人工智能(AI)的热潮席卷全球。不过,您知道和人工智能对话还会消耗水资源吗?如果一个用户向ChatGPT问了10到50个问题,可能会消耗掉500毫升的水。

训练和运行AI大模型通常需要数以万计的服务器来提供计算资源、存储资源以及低延迟的网络连接,这些服务器会以集群的方式部署在名为“数据中心”的物理场所,当它们一起工作时,会在短时间内产生高度集中的热量,所以需要大量的水资源进行冷却。

以微软和谷歌为例。2022年,微软一共用掉了约17亿加仑(约64亿升)水,相当于可以填满约2500个奥运会规格的泳池;而谷歌的数据中心和办公室则用掉了总计56亿加仑(约212亿升)水,相当于8500个奥运会规格的游泳池。数据显示,现在AI所需要的算力预计每100天就会翻一番,并且在未来五年内可能会增长超过一百万倍。研究人员预计,到2027年,全球范围内的AI需求可能会需要消耗掉66亿立方米的水资源,几乎相当于美国华盛顿州全年的取水量。

AI服务器行业规模

AI服务器是一种能够提供人工智能(AI)的数据服务器。它既可以用来支持本地应用程序和网页,也可以为云和本地服务器提供复杂的AI模型和服务。AI服务器有助于为各种实时AI应用提供实时计算服务。AI服务器主要有两种架构,一种是混合架构,可以将数据存储在本地,另一种是基于云平台的架构,使用远程存储技术和混合云存储(一种联合本地存储和云存储的技术)进行数据存储。

AI服务器通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求,为自然语言处理、计算机视觉、机器学习等AI应用场景提供强大的算力支持,支撑AI算法训练和推理过程。

AI服务器行业产业链上游主要包括芯片、PCB、连接器、线缆、电源和各类接口等。中游主要包括服务器品牌上和OEM/ODM厂商,未来OEM/ODM或将逐步向JDM模式转变。下游主要是采购服务器的各类客户群体。此处列举的服务器下游终端客户群体主要是B端和G端客户,主要包括互联网厂商、云服务商、运营商、政府机构、金融机构等。

随着AI大模型算力需求强劲,今年以来,国内算力产业链公司接连斩获新订单。

在AI大模型浪潮的带动下,人工智能芯片、服务器、数据中心市场规模将显著提升。IDC预计,2023年中国人工智能芯片出货量将达到133.5万片,同比增长22.5%。

人工智能服务器方面,IDC预计,2023年中国人工智能服务器市场规模将达到91亿美元,同比增长82.5%;2027年将达到134亿美元,年均复合增长率为21.8%。

智算中心建设步伐加快。据不完全统计,截至2023年8月,全国已有超过30个城市建设智算中心。

业内人士表示,随着AI大模型加速迭代,智能算力已成为稀缺资源。未来较长一段时间内,我国AI服务器市场维持供不应求状态,国产AI芯片市场规模增长迎来关键窗口期。

10月8日,工信部等六部门联合印发《算力基础设施高质量发展行动计划》,计划提出,到2025年我国算力规模超过300EFLOPS(300百亿亿次浮点运算/秒),智能算力占比达到35%。而对比中国信通院数据,截至今年6月底我国算力规模达197EFLOPS,其中智能算力占比达25%。

这意味着,智能算力量化指标提升超110%,预计将会有约56EFLOPS的智能算力增量市场。

随着大模型向千行百业落地,部署AI算力已成为算力基础设施的重要发展方向。IDC报告显示,随着生成式AI应用的爆发,各行业对智算的需求首次超过通用算力,AI算力已成为算力发展的主要方向,成为“东数西算”发展新的强劲动力。

服务器产业和厂商是智能算力建设中的重要一环。我们看到,当下国内服务器市场出现了价格飞涨、红海在望、客户破圈的盛况,同时也面临着供应链短缺、供需失衡的严峻风险。百模大战关口,AI服务器厂商走到了产业链疏通力的验证时刻。能否在抵御供应链风险的同时,与上下游伙伴形成强力联盟,成为AI服务器厂商破局的一个关键。

AI服务器行业研究报告旨在从国家经济和产业发展的战略入手,分析AI服务器未来的政策走向和监管体制的发展趋势,挖掘AI服务器行业的市场潜力,基于重点细分市场领域的深度研究,提供对产业规模、产业结构、区域结构、市场竞争、产业盈利水平等多个角度市场变化的生动描绘,清晰发展方向。