大模型火爆全网,AI服务器成隐形赢家

推荐使用ChatGPT4.0中文网,国内可直接访问:www.chatgp4.com

百度发布文心一言,AI服务器需求或迎爆发

就在上周四,百度发布了文心一言数据大模型,引发了全网热议。无论是ChatGPT-4还是文心一言,本质上都彰显了算法大模型催生的AI军备竞赛。在这些大公司的推动下,大模型的出现还有望迅速刺激AI服务器的需求。在这一背景下,CPU、内部存储和外部存储作为服务器的核心部件,将在未来继续受到关注。本文重点探讨AI服务器可能带来的机会。

服务器:大模型的基础架构

大模型是人工智能发展的必然趋势,它为辅助式人工智能向通用性人工智能的转变提供了坚实基础,能够显著提升生产力。通过学习特征和规则,构建出高效的通用模型,在此基础上进行微调,就可以应用于不同的场景。以往,企业开发各自的模型,单一AI应用场景往往需要多个模型支持,这一过程涉及算法开发、数据处理和模型训练等多个环节,消耗了大量资源。

在AI时代,这样的低效开发模式显然不符合谷歌、微软、百度等科技巨头的期望。如今,大模型的标准化研发范式使得规模化生产成为可能,不仅降低了AI开发的门槛,实现了“低成本”和“高效率”,还能够满足具有定制化需求企业的特定要求。

因此,基于这一基础,大模型的开发成为互联网发展的趋势,而这一趋势的核心技术支撑便是算力。在构建大模型生态的过程中,服务器作为算力的载体,是发展的重要支持。服务器的角色在文心一言、ChatGPT等产品中发挥着不可或缺的作用,确保从输入到输出的顺利实现。

服务器与普通计算机相比,运行速度更快、负载能力更强、价格更高,但其内部结构差异不大。当前,服务器架构已经从传统的单一模式过渡到集群模式,并进一步演变为具有广泛应用前景的分布式架构。在分布式架构中,整个系统根据不同功能被拆分成多个单一功能的子模块,分布在多台服务器中相互协作,共同构成服务器网络。

服务器市场的迅猛增长

根据IDC发布的《2022中国半年度加速计算市场分析报告》,2021年全球服务器市场规模达到992亿美元,同比增长9.01%,而中国市场规模约为251亿美元,近年来占全球比重快速上升,已成为主要增长市场。随着百度、华为等大厂在云服务领域展开激烈竞争,服务器的需求也随之上升。不同的应用场景对服务器的要求变得越来越高,服务器逐渐成为重要的算力基础,并拥有巨大的成长空间。

IDC预测,未来中国整体服务器的复合增长率将达到12.7%,到2025年市场规模预计将达到424.7亿美元。虽然服务器市场尚未达到千亿规模的超级行业,但其在各大行业智能化发展中的支撑作用已变得不可忽视。特别是在人工智能应用场景下,加速计算服务器因其强大的计算能力,已经成为服务器市场的核心驱动力。

近年来,从文心一言到ChatGPT-4,AI场景中的加速计算服务器已经成为各种算力比拼和模型竞争的基础,AI服务器的价值正逐步突出。例如,2021年上半年,中国的加速计算服务器市场达到了24亿美元,同比上涨85.1%。浪潮、新华三、华为、戴尔和联想等企业是这一领域的领先者。

与此同时,服务器成本也在不断上升。根据报告,2021年全球服务器的平均单价已高达7328美元,而中国市场也达到了6415美元,价格逐渐接近全球平均水平。AI服务器在芯片组(CPU+GPU)上的成本较高,训练型AI服务器的芯片组成本占比高达83%,推理型AI服务器的占比为50%,远超通用服务器的比例。以浪潮的通用服务器——浪潮英信服务器NF5260M6为例,建议零售价为9359美元,折合人民币约65000元,而浪潮的AI处理器NF5488A5则售价8880美元(约62000元),GPU售价高达104000元。

数字经济时代的竞争与机遇

根据华西证券的研究,计算力指数的提高能够显著推动国家的数字经济和GDP增长。IDC的数据显示,当一个国家的计算力指数达到40分以上时,其GDP增长的推动力呈现几何级数的增长,达到60分以上时,计算力每提高1点将助力GDP增长3倍。因此,AI服务器作为处理海量数据和计算的专用设备,将在医疗、材料、金融、科技等多个行业中大放异彩。

那些具备服务器能力的厂商,包括中科曙光、浪潮信息、拓维信息、神州数码,以及拥有算力芯片的厂商如寒武纪、海光信息、龙芯中科、景嘉微等,都有望在这一趋势中获得巨大的发展机遇。在数字经济快速发展的今天,AI服务器无疑将为未来的发展提供强大的动力。

滚动至顶部