“AI的iPhone时刻已至”,英伟达或将成为最大赢家
在GTC2023大会上,英伟达首席执行官黄仁勋接连发布了多项重磅产品与技术:
首先,他推出了专为ChatGPT设计的GPU,该GPU在实时处理能力上比之前的HGX A100快了整整10倍。此外,黄仁勋还宣布了其在芯片领域的最新进展,包括推出新的cuLitho软件库,使光刻计算速度整体提升了40倍。
从黄仁勋的发言中可以看出,当前热门的AIGC产品如ChatGPT、Stable Diffusion和DALL-E等皆与英伟达息息相关。自去年底以来,ChatGPT的爆火带动了英伟达的股价,年初至今股价上涨了83%,目前市值达到6471亿美元。
在会议及随后的采访中,黄仁勋高度评价了AI生成内容的潜力,称“AI是用人类语言编程的新型计算机,未来每个人都将成为程序员”。接下来,让我们盘点一下此次大会的具体亮点。
发布ChatGPT专用GPU
在大会之前,网络上对于GTC的猜测集中于ChatGPT。英伟达毫不吝啬,除了ChatGPT,还推出了四种针对AI任务的推理平台:
- L4 Tensor Core GPU
- L40 GPU
- H100 NVL GPU
- Grace Hopper超级芯片
其中,H100 NVL GPU就是这次推出的专用于ChatGPT的GPU,它是去年发布的H100的改进版本,配备双GPU NVLink,将两张具有94GB HBM3显存的PCIe H100 GPU合并在一起。黄仁勋形象地说明,相比于目前唯一可实时处理ChatGPT的HGX A100,搭载四对H100和双NVLINK的服务器能将速度提升10倍,同时将大语言模型的处理成本降低一个数量级。
接下来看看其他三个推理平台的表现:
- L4 GPU专为AI生成视频设计,其视频性能比传统CPU高出120倍,能效提高了99%。
- L40 GPU则用于图像生成,能够优化AI生成的2D和3D图像,其性能比英伟达的云推理GPU T4提升了10倍。
- Grace Hopper超级芯片可用于推荐系统和大型语言模型AI数据库,能够实现与图推荐模型、向量数据库和图神经网络的连接,成为处理大型语言数据集的理想选择。
此外,英伟达还联合微软Azure、Google GCP和Oracle OCI三家云服务商推出了DGX Cloud,使得普通企业也能训练大型语言模型(LLM)。这意味着,企业可以租赁DGX云服务,直接利用英伟达的AI超级计算机实时接入,从而训练像ChatGPT一样的大语言模型。英伟达提供的DGX服务器包括8个H100或A100图形处理器和640GB内存,A100层的租赁价格为每月36999美元,而购买一台实体DGX服务器则需花费20万美元。
用cuLitho加速芯片创新
在GTC大会上,黄仁勋还推出了重磅技术——英伟达cuLitho计算光刻库,标志着加速计算在光刻领域的引入。
cuLitho计算光刻库是一种加速光刻基础计算的算法库,能显著提升光刻计算速度,并降低能耗。黄仁勋指出,目前光刻计算每年需消耗数百亿的CPU时间,而运行在GPU上的cuLitho可以将当前光刻技术的性能提升40倍,功耗则减少至之前的1/9。这一技术甚至有助于行业2nm工艺的基础建设。
目前,英伟达已与台积电、ASML和Synopsys等芯片制造商达成合作,后续的芯片生产将引入cuLitho技术。其中,台积电的CEO魏哲家称赞cuLitho为台积电在芯片制造领域部署反向光刻和深度学习技术开辟了新机遇。黄仁勋还透露,台积电计划在今年6月份的2nm芯片生产中应用cuLitho。
ASML的首席执行官Peter Wennink表示,所有计算光刻软件产品都将支持GPU,并期望与英伟达合作,在GPU和cuLitho的应用上带来显著的利益。Synopsys公司在cuLitho平台上运行的OPC软件,性能得到提升,从几周缩短至几天。
其他亮点
除了上述内容,GTC大会上英伟达还透露了一些其他合作项目,例如与Adobe、Getty Images和Shutterstock在生成式AI方面的合作。此外,英伟达宣布与医疗设备公司Medtronic达成新合作,共同构建一个涵盖手术引导和机器人辅助手术的医疗AI平台。
若想了解更多关于GTC2023的内容,可以查看以下链接的直播回放: