GPU制造商英伟达日前推出了一项新服务,允许客户在云端访问其DGX AI超级计算机。该公司还发布了一套新的基于云的工具,用于构建生成式AI系统。自从OpenAI推出ChatGPT聊天机器人以来,这类AI模型得到了广泛欢迎,而英伟达也一直从中获利。
英伟达CEO黄仁勋在2月22日召开的电话财报会议上透露了新产品的细节。当财季,英伟达营收为60.5亿美元,略高于预期的60.1亿美元,但同比下降21%。
尽管全球经济放缓正在影响利润,但该公司预计今年第一季度的收入将达到65亿美元,高于此前63.3亿美元的预期,这在很大程度上得益于AI热潮推动了GPU需求。
英伟达将GDX超级计算机引入云端
黄仁勋透露,该服务将于今年3月在该公司举办的GTC开发者大会上正式推出。他说,“Nvidia DGX Cloud是开发者拥有自己的DGX AI超级计算机的最快、最简单的方式,用户只需要打开浏览器即可使用。这一产品已经在Oracle云基础设施应用,不久也将在Microsoft Azure、Google云平台和其他平台使用。”
黄仁勋还在会上讨论了该公司新的AI云服务,该服务将由英伟达直接向客户提供,并托管在微软Azure和谷歌云等主要云平台上。
黄仁勋指出,客户可以在AI超级计算机、加速库软件或预先训练的AI模型层上使用英伟达的AI云服务。此举将为客户提供世界上最先进的AI平台,同时可以利用当前最先进的云平台提供的存储、网络、安全和云服务。
这意味着,客户将能够使用该平台来训练和部署大型语言模型或其他AI系统。此外英伟达还将提供预训练生成式AI模型NeMo和BioNeMo——黄仁勋将其描述为“可定制的AI模型,面向希望为其业务构建专有生成式AI模型和服务的企业客户”。
“通过我们的新业务模式,客户可以在其私有云到公共云之间使用英伟达全方位的AI计算服务。”黄仁勋补充道。
客户对生成式AI的兴趣飙升
英伟达的声明可能不会受到一些大客户的欢迎,例如谷歌和微软,这两家公司都在购买英伟达的芯片来支持他们自己的AI产品和服务。
英伟达目前主导着用于加速AI工作负载的GPU市场,因此随着越来越多的企业购买其芯片。ChatGPT的成功以及谷歌Bard等其他生成式AI模型的出现,显著改善了该公司的财务状况。
黄仁勋表示,对GPU和其他处理器的需求是改善该公司财务前景的主要因素。他将这类系统的出现描述为“计算的新时代”,并指出“这种类型的计算机在应用上是完全革命性的,因为它为更多的人提供了民主化的编程。”
在谈到这类模型编写准确代码的能力时,他补充说:“这是一个可以为任何应用编写代码的AI模型。出于这个原因,每个开发软件的人或者开始警觉,或者感到震惊,或者积极开发类似ChatGPT的产品,并将其集成到他们的应用或服务中。”
“围绕我们在Hopper(英伟达的GPU微架构)上构建的AI基础设施的活动,以及围绕使用Hopper (英伟达的另一种GPU微架构) 和Ampere推理大型语言模型的活动在过去60天里飙升。毫无疑问的是,AI行业在过去60~90天中发生了相当大的变化。”他补充道。
文章版权声明
1 原创文章作者:︶ㄣ东哥,如若转载,请注明出处: https://www.52hwl.com/59163.html
2 温馨提示:软件侵权请联系469472785#qq.com(三天内删除相关链接)资源失效请留言反馈
3 下载提示:如遇蓝奏云无法访问,请修改lanzous(把s修改成x)
4 免责声明:本站为个人博客,所有软件信息均来自网络 修改版软件,加群广告提示为修改者自留,非本站信息,注意鉴别