参考消息网4月7日报道:据美国消费者新闻与商业频道网站4月5日报道,在高能耗的机器学习模型继续成为科技行业的最热门领域之际,谷歌公司周三公布了一款人工智能(AI)超级计算机的详细信息,称其比竞争对手英伟达的系统更快、更高效。
虽然英伟达凭借90%以上的占有率主导着人工智能模型训练和应用市场,但谷歌自2016年以来一直在设计和应用名为张量处理器(TPU)的人工智能芯片。
谷歌是人工智能领域的一大领军者,其员工在过去10年里取得了该领域的一些最重大进展。但一些人认为,它在技术发明商业化方面已经落后。
人工智能模型和产品——比如谷歌的巴德(Bard)或开放人工智能研究中心(OpenAI)的由英伟达A100芯片驱动的聊天生成预训练转换器(ChatGPT),需要大量的计算机和数以万计的芯片共同训练模型,而这些计算机要昼夜不停地运行数周乃至数月。
谷歌公司周二说,它已经打造了一套系统,其中包含4000多个TPU,并加入了设计用于运行和训练人工智能模型的定制组件。该系统从2020年开始运行,并被用于训练谷歌的PaLM模型——与OpenAI的GPT竞争的模型——超过50天。
谷歌的研究人员写道,谷歌基于TPU的超级计算机名为TPU v4,其“达到英伟达A100芯片速度的1.2至1.7倍,能耗也更低”。
研究人员接着说:“性能、可扩展性和可用性使TPU v4超级计算机成为大型语言模型的主力。”
不过,谷歌研究人员说,谷歌的TPU并没有被拿来与英伟达最新款人工智能芯片H100进行比较,后者采用了更先进的制造技术。
一项名为MLPerf的全行业人工智能芯片测试结果和排名于周三公布。英伟达首席执行官黄仁勋说,英伟达最新款H100芯片的测试结果明显优于上一代。
黄仁勋在一篇博客文章中写道:“今天公布的MLPerf 3.0结果凸显出H100的性能是A100的4倍。”他说:“下一阶段的生成式人工智能需要新的人工智能基础设施,以高能效的方式训练大型语言模型。”
人工智能所需的大量计算机能耗相当昂贵,因此业内许多企业正专注于研发新的芯片、光学连接组件或软件技术,以降低所需的计算机能耗。
对谷歌、微软和亚马逊等云服务提供商来说,降低人工智能的能耗需求也将令它们受益。它们可以按小时出租计算机处理服务,向初创企业提供信贷或计算时间来建立关系(谷歌云也出售采用英伟达芯片的服务时间)。