Google Cloud 的与 AI 模型库 Hugging Face 建立新合作伙伴关系让开发人员无需支付 Google Cloud 订阅费用即可构建、训练和部署 AI 模型。现在,使用 Hugging Face 平台的外部开发人员将能够“经济高效”地访问 Google 的张量处理单元 (TPU) 和GPU超级计算机,其中将包括数千个 Nvidia需求旺盛和出口限制 H100Hugging Face 是比较流行的 AI 模型存储库之一,存储开源基础模型,例如 Meta 的 Llama 2 和 Stability AI 的 Stable Diffusion。

它还拥有许多用于模型训练的数据库。

该平台上托管了超过 350,000 个模型,供开发人员使用或将自己的模型上传到 Hugging Face,就像程序员将代码放在 GitHub 上一样。Hugging Face 估值 45 亿美元,谷歌、亚马逊、Nvidia 等公司都见过帮助筹集2.35亿美元在过去的一年里。

谷歌表示,Hugging Face 用户可以在 2024 年上半年开始使用人工智能应用程序构建平台 Vertex AI 和 Kubernetes 引擎来帮助训练和微调模型。

谷歌在一份声明中表示,与 Hugging Face 的合作进一步增强了谷歌云对开源人工智能生态系统开发的支持。谷歌的一些模型在 Hugging Face 上,但其旗舰大语言模型像双子座一样,现在为聊天机器人 Bard 提供支持,文本到图像模型 Imagen 不在存储库中,被认为是更闭源的模型。