今天,我们宣布了令人兴奋的更新,使 Gemini 2.0 可供更多开发者和生产环境使用。以下模型现在以 Gemini API 的形式提供,可通过 Google AI Studio 和 Vertex AI获取:
加上最近推出的 Gemini 2.0 Flash Thinking Experimental(可在回答之前进行推理的 Flash 模型),这些版本使 Gemini 2.0 功能可用于各种用例和应用。
Gemini 2.0 Flash 提供了一套全面的功能,包括原生工具使用、100 万个令牌的上下文窗口和多模式输入。此模型目前支持文本输出,具有图像和音频输出功能,并且我们计划在未来几个月内正式推出 Multimodal Live API。Gemini 2.0 Flash-Lite 针对大规模文本输出用例进行了成本优化。
在一系列基准测试中,Gemini 2.0 模型实现的性能提高幅度明显高于 Gemini 1.5。
与之前的模型一样,Gemini 2.0 Flash 默认采用简洁的样式,使其更易于使用并降低成本。模型还可以根据提示使用更详细的样式,从而在聊天相关的用例产生更好的结果。
我们继续使用 Gemini 2.0 Flash 和 2.0 Flash-Lite 来降低成本。此外,我们还为每种输入类型设置了单一价格,从而消除 Gemini 1.5 Flash 在处理短和长上下文请求之间的价格差异。这意味着,在处理混合上下文的工作负载时,2.0 Flash 和 Flash-Lite 的成本都可以低于 Gemini 1.5 Flash,尽管两者的性能均有改进。
点击以下链接,详细了解不同模式的令牌计数、Gemini 开发者 API 定价和 Vertex AI 定价。
您只需输入四行代码即可开始使用最新的 Gemini 模型进行构建,还可以利用业界领先的免费政策和费率限制将模型扩展到生产环境。我们的灵感来自于您迄今为止所取得的进步,并且热切期待看到您将如何使用这些最新的 Gemini 模型。祝您尽享构建的乐趣!