在伦敦 Google Cloud 峰会上,我们分享了 Google Cloud 如何利用 AI 改变开发流程,以及如何解锁您构建新一代代理应用的能力。在峰会期间,我们很高兴地宣布了几项 Firebase Studio 中的重大改进。Firebase Studio 是我们的云端 AI 工作区,无论您是想使用多模态提示生成代码,还是直接编写代码,均可在此创建全栈应用。通用代理模式、对模型上下文协议 (MCP) 的基础支持和 Gemini CLI 集成等更新旨在重新定义 AI 辅助开发,并将强大的 AI 功能直接集成至开发者的工作流中。
Firebase Studio 现提供三种用于与 Gemini 交互的不同模式,其中包括全新的自主代理模式,无论您是想展开对话、通过逐步控制委派任务,还是让 Gemini 代表您独立执行任务,该模式均可满足您的需求。得益于 Gemini 2.5 对代码的深刻理解和强大的推理能力,您可以在各个模式之间无缝切换,进而加快开发任务的速度。
此模式可用于与 Gemini 一起讨论和规划,非常适合于进行头脑风暴、代码规划和复杂问题的协作探讨。“咨询”模式是纯对话模式,不对会您的文件做出任何修改。
在此模式下,Gemini 能对您的应用提出修改建议,但最终决定权始终在您手中。在“代理”模式下,所有文件修改必须经过您的批准才会执行。借助该模式,您可以全面掌控修改情况,并在代码变更集成至您的项目之前轻松进行审查。
当您使用“代理(自动运行)”模式时,Gemini 可以自主推理并生成完整应用或向现有应用添加功能。例如,Gemini 可以根据单一提示,跨多个文件修改代码、编写测试、修复错误并重构组件。但出于安全考虑,Gemini 在删除文件、执行终端命令或使用外部工具时仍需要您授权。
“代理”模式可利用各种项目级规则文件中的个性化指导,确保 Gemini 遵循您的特定设计模式和偏好设置。此模式会自动检测并加载项目根目录下 .idx/airules.md
、GEMINI.md
或 .cursorrules
等文件中的说明,提供连贯一致且高度定制的体验。
除了这些全新代理模式外,我们还在 Firebase Studio 中引入了对模型上下文协议 (MCP) 的基础支持。现在,您可以在工作区中添加 MCP 服务器,从而使用 Firebase 中的 Gemini 扩展并定制您的工作流。举例来说,您可以借助 Firebase MCP 服务器,在构建或调试应用的同时使用自然语言探索 Cloud Firestore 中的数据,或使用 Context7 获取 Gemini 特定库的上下文(例如,尝试使用 MediaPipe 的设备端 ML 构建应用)。欢迎大家提供反馈,以便我们深入集成此功能。
我们近期推出了 Gemini CLI,这是一款强大且免费的工具,不仅可以编写代码,还能完成内容生成和研究等各种任务。Gemini CLI 提供宽松的使用配额、先进的 AI 功能和支持自定义与贡献的开源架构,并且可与 Google 搜索集成,使用户获取实时上下文信息。现在,我们很高兴地宣布 Gemini CLI 已直接集成至 Firebase Studio 中。
如果您在终端花费大量时间用于代码生成、调试、命令执行或项目文件管理等任务,不妨试用 Gemini CLI,该工具可提供顺畅的 AI 驱动体验,让您无需切换至独立聊天窗口即可完成操作。
此次更新乘势而上,将强大的 AI 功能进一步集成到 Firebase Studio 中。
许多开发者已经开始使用 Firebase Studio 的 AI 功能来简化工作流,并加速产品发布,例如创建氢能经济采购平台、为用户提供个性化时尚搭配服务、借助 AI 驱动型卡片的扫描与识别功能协助 Pokémon 爱好者管理卡片收藏、通过震撼的可视化效果和以人为本的分析技术将架构转化为现实。
我们将不遗余力地继续发布新功能和更新,助力您快速轻松地推出专业级应用。欢迎在 Firebase Studio 中体验这些新功能,并在 X 和 LinkedIn 上添加 #FirebaseStudio 标签,分享您所构建的精彩内容!