Nvidia与Snowflake合作开发大型语言模型AI
Snowflake通过GPU实例扩展了其Snowpark产品,以运行NvidiaNeMo框架中的基础模型,以便对Snowflake中存储的客户数据进行进一步训练。
周一,在拉斯维加斯举行的SnowflakeSummit2023用户大会上,这家云数据库制造商宣布与芯片巨头Nvidia建立合作伙伴关系,共同处理所谓的人工智能基础模型。
根据安排,Snowflake客户将能够租用Snowflake数据仓库安装中的云GPU容量,他们将利用该容量通过去年秋天推出的NvidiaNeMo框架来完善神经网络。基础模型是非常大的神经网络,例如大型语言模型,通常是“预先训练的”——也就是说,它们已经发展到一定的能力水平。
客户将使用Snowflake的数据仓库来利用客户自己的数据来开发NeMo基础模型的自定义版本,以满足他们的需求。
英伟达企业计算副总裁马努维尔·达斯(ManuvirDas)在新闻发布会上表示:“这对两家公司来说是非常自然的结合。”达斯继续说道:
“对于Nvidia和Snowflake来说,好吧,如果企业公司需要根据他们的数据为生成人工智能创建自定义模型,并且数据位于Snowflake的数据云中,那么我们为什么不引入Nvidia的模型引擎NeMo将NeMo集成到Snowflake的数据云中,以便企业客户在其数据云上可以生成这些模型,然后将其用于其业务中的用例。”
这一公告是利用人工智能(尤其是生成式人工智能)作为商业工具的日益增长趋势的一部分。周一,ApacheSpark开发商Databricks以13亿美元收购了初创公司MosaicML,震惊了科技行业,MosaicML提供训练和部署基础模型的服务。
Snowflake将通过从已经合作的云服务提供商处采购NvidiaGPU实例来实施该服务。“现在,我们只是在讨论这种[关系]的扩展,以包括基于GPU的实例,”Das说。
在周二的单独发布中,Snowflake表示将通过其所谓的SnowparkContainerServices扩展其Snowpark开发者平台,该服务目前处于私人预览阶段。该公司正在“扩大Snowpark的范围,以便开发人员能够解锁更广泛的基础设施选项,例如使用NvidiaGPU和人工智能软件进行加速计算,以便在Snowflake的安全和受管控平台内运行更多工作负载,而不需要复杂性”,该新闻稿称,“包括更广泛的基础设施选项”。人工智能和机器学习(ML)模型、API、内部开发的应用程序等。”
郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢。