自宣布推出 Gemini Embedding 文本模型正式版以来,我们已经看到开发者迅速用它来构建高级 AI 应用。除了分类、语义搜索和检索增强生成 (RAG) 等传统用例之外,许多开发者现在正在使用一种称为上下文工程的技术为 AI 智能体提供完整的操作上下文。嵌入在这方面至关重要,因为可以有效地识别重要信息(如文档、对话历史记录和工具定义)并将其直接整合到模型的工作记忆中。
以下示例展示了各行各业的组织如何利用 Gemini Embedding 模型为复杂的系统提供支持。
智能内容管理平台 Box 正在集成 Gemini Embedding,以实现关键用例:回答问题并从复杂文档中提取见解。在评估期间,gemini-embedding-001
找到正确答案的概率超过 81%,与其他嵌入模型相比,召回率提高了 3.6%。除了这种性能提升之外,我们模型内置的多语言支持对于其全球用户来说是一项颇具前景的进步,使 Box AI 能够从不同语言和地区的内容中获取有价值的见解。
金融科技公司 re:cap 使用嵌入对大量的 B2B 银行交易进行分类。他们利用包含 21,500 笔交易的数据集,将 gemini-embedding-001
与之前的 Google 模型(text-embedding-004
和 text-embedding-005
)进行基准测试,以此衡量前者的影响,结果发现其 F1 得分相较于后两个模型分别提高了 1.9% 和 1.45%。F1 得分能够平衡模型的精度和召回率,对于分类任务至关重要。这展示了像 Gemini Embedding 这样的强大模型如何直接推动显著的性能提升,从而帮助 re:cap 为客户提供更精准的流动性见解。
Everlaw 是一个提供可验证 RAG 的平台,旨在帮助法律专业人士分析大量的发现文档。该平台需要对数百万篇专业文本进行精确的语义匹配。通过内部基准测试,Everlaw 发现 gemini-embedding-001
的表现最佳,从充满行业特定和复杂法律术语的 140 万份文档中提取相关答案的准确率达到 87%,超过了 Voyage (84%) 和 OpenAI (73%) 模型。此外,Gemini Embedding 的 Matryoshka 属性使 Everlaw 能够使用精简的表征方式,将重要信息集中在更少的维度上。这不仅可以将性能损失降至最低,还可以降低存储成本并提高检索和搜索的效率。
开源 AI 编码助手 Roo Code 使用 Gemini Embedding 模型为其代码库索引和语义搜索提供支持。使用 Roo Code 的开发者需要搜索功能有助于理解意图而不仅仅是语法,因为助手会像人类队友一样在多个文件中进行交互。通过将 gemini-embedding-001
与 Tree-sitter 配对进行逻辑代码拆分,Roo Code 可提供高度相关的结果,即使不精确的查询也是如此。经过初步测试,他们发现 Gemini Embedding 显著改善了 LLM 驱动的代码搜索,使其更灵活、更准确并与开发者工作流保持一致。
Mindlid 的 AI 健康伙伴利用 gemini-embedding-001
了解对话历史记录,从而能够提供基于上下文且有意义的见解,并能实时适应用户的需求。他们记录了令人印象深刻的性能表现:稳定的亚秒级延迟(中位数:420 毫秒)和出色的召回率(82%,排名前 3),比 OpenAI 的 text-embedding-3-small
的召回率高 4%。这表明,Gemini Embedding 能够通过提供最相关的信息来提高其 AI 支持的相关性和速度。
Interaction Co. 正在构建可自动执行任务并从 Gmail 中提取信息的 AI 电子邮件助手 Poke。Poke 将 Gemini Embedding 用于两个关键功能:检索用户“记忆”和识别相关电子邮件以增强上下文。通过集成 gemini-embedding-001
,Poke 的语言模型可以更快、更精确地检索数据。他们报告说,与 Voyage-2 相比,嵌入 100 封电子邮件的平均时间显著减少了 90.4%,只需 21.45 秒即可完成任务。
随着 AI 系统变得更加自主,其效果将取决于我们提供的上下文质量。像 gemini-embedding-001
这样的高性能嵌入模型是构建下一代智能体的基本组成部分,这些智能体可以进行推理、检索信息并代表我们采取行动。
要开始使用嵌入,请访问 Gemini API 文档。
绩效指标由开发者提供,未经 Google 独立确认。