谷歌刚刚宣布推出Gemma语言模型帮助开发者在构建人工智能时更加负责

时间:2024-02-22 11:07:12 来源:
导读 我们都知道谷歌推出Gemini已有几个月了,该公司甚至最近还推出了新的更新。现在,这家搜索引擎巨头担起了推出Gemma的重任;该语言模型面向开

我们都知道谷歌推出Gemini已有几个月了,该公司甚至最近还推出了新的更新。现在,这家搜索引擎巨头担起了推出Gemma的重任;该语言模型面向开发人员,将帮助他们负责任地构建人工智能。现已在全球推出2B和7B版本。这两种模型都是经过预训练和指令调整的变体。谷歌声称它在MMLU基准测试中的表现比Mistral7B和Llama13B更好。

对于希望负责任地构建基于人工智能的应用程序的开发人员来说,Google的Gemma是一条前进的道路。它可以免费使用,并且可以在大多数机器上运行,无需专门的硬件

与其他一些型号相比,Gemma最好的事情之一是它可以在计算机和笔记本电脑上运行,没有任何问题。谷歌甚至谈到了它如何在一些关键基准测试中表现出色,在这些基准测试中它可以提供比其他模型更好的性能。正如预期的那样,该模型建立在谷歌的人工智能原则之上,并且该公司确保对其进行了大量测试,以确保它不会给出与谷歌制定的原则不符的响应。

除了发布Gemma之外,谷歌还发布了ResponsibleGenerativeAIToolkit,该工具包将帮助开发人员和研究人员构建安全的AI应用程序。以下是新工具包的概要。

安全分类:一种用最少的示例构建强大的安全分类器的新颖方法。

调试:模型调试工具可帮助您调查Gemma的行为并解决潜在问题。

指南:您可以根据Google在开发和部署大型语言模型方面的经验,获取模型构建者的最佳实践。

展望未来,Gemma还支持以下工具和系统,以便您可以更轻松地了解您正在了解的内容。

多框架工具:有跨多框架Keras3.0、本机PyTorch、JAX和HuggingFaceTransformers进行推理和微调的参考实现。

跨设备兼容性:Gemma模型可以跨多种不同的设备类型运行,包括笔记本电脑、台式机、物联网、移动设备和云。

Nvidia合作伙伴关系:得益于Google和Nvidia之间的合作伙伴关系,Gemma针对NvidiaGPU进行了优化。

针对GoogleCloud进行了优化:VertexAI提供了广泛的MLOps工具集,其中包含一系列调整选项以及使用内置推理优化的一键部署。完全托管的VertexAI工具或自我管理的GKE提供高级自定义功能,包括从任一平台跨GPU、TPU和CPU部署到经济高效的基础设施。

好消息是,Gemma可以在Kaggle(Colab笔记本的免费套餐)上免费使用,并且作为首次GoogleCloud用户,您还可以获得300美元的积分。该公司甚至为研究人员提供帮助,让他们申请高达50万美元的免费G​​oogleCloud积分。

最好的事情是Gemma可以免费试用,因为您将能够在具有足够vRAM和NvidiaGPU的大多数现代机器上运行它。如果您认为该工具是您需要的,您可以在这里尝试一下。

我们一次又一次批评谷歌没有认真对待其产品和服务。但随着Gemini最近的更新和Gemma的发布,很明显,该公司希望为每个希望在人工智能领域脱颖而出的人做正确的事。老实说,我迫不及待地想看看人工智能的未来。

标签: