感谢参加今年的 Google I/O 大会。人工智能正在从根本上改变我们构建的内容以及构建它的方式。我们致力于通过提供在这一新现实中进行创新所需的工具,让人工智能对每个开发人员来说都易于使用并为他们提供帮助。接下来,让我们来详细了解如何在整个开发堆栈中做到这一点。
提供模型和API来构建出令人难以置信的人工智能驱动的应用程序。
1.5 Flash 可以简化工作流程并优化人工智能驱动的应用程序,这是我们用于高频任务的模型,可通过 Google AI Studio中的 Gemini API 进行访问。 Gemini 1.5 Flash 和 1.5 Pro 现已在200多个国家和地区提供公开预览版,包括欧洲经济区(和欧盟)、英国和瑞士。开发者还可以加入 Google AI Studio 候补名来预览 1.5 Pro 中具有突破性的200万个上下文窗口。
Gemini API 现在支持并行函数调用和视频的逐帧提取。借助下个月推出的新上下文缓存功能,您将能够通过以较低的成本缓存常用的上下文文件来简化大型提示的工作流程。这非常适合在现有工作的基础上发挥创意、分析复杂文档或为研究论文和培训材料提供摘要。
我们的社区对 Gemma 系列开放模型的反应感到非常兴奋,这些模型采用与 Gemini 相同的研究和技术构建。今年早些时候(此处提供博客文章链接),我们添加了 CodeGemma 和 RecurrentGemma。今天,我们将推出用于多模态视觉语言任务的 PaliGemma。我们分享了 Gemma 2 - 预览了一个具有 27B 个参数的实例,该实例的性能优于其它具有其两倍参数的模型,并且能在单个 TPUv5e 上运行。
开放生态系统
借助我们开放的工具生态系统,利用人工智能堆栈每一层的可选性和灵活性。开发者可以使用 Keras 在 TensorFlow、PyTorch 或 JAX 上运行工作流程,在 Colab 上使用 LoRA 和 Keras 轻松微调模型,使用 OpenXLA 来加快训练速度,或使用 RAPIDS cuDF 来加速 Colab 中的工作任务。
Google AI Edge
将人工智能部署到边缘环境,包括移动设备和Web环境。无论您需要访问即用型机器学习任务、完全在设备上运行的时下流行的大语言模型,还是能够引入自己的自定义模型或模型管线,您都可以在 Google AI Edge 中找到一套简化的工具。对 TensorFlow Lite 的扩展支持让您可以将 PyTorch 模型直接传递给移动用户。 Tensorflow Lite 的改进使得将 AI 引入设备变得比以前更容易。
参加 Gemini API 开发者竞赛并使用 Gemini API 创建突破性的应用程序,就有机会赢得1981年定制版电动 DeLorean 和其他专属奖品。我们很高兴看到您如何使用 Gemini API 的创新来重新定义人工智能的边界并塑造更光明的未来。无论您的应用程序专注于对社会产生积极影响、提供实用的解决方案还是要突破创造力的界限,您都有机会在人工智能领域留下印记。
为 Android 系统提供由人工智能加持的卓越用户体验,并通过强大的 API、工具包和使用指南提高开发人员的工作效率。
去年,我们推出了 Studio Bot 这款 Android 人工智能编码助理。感谢您的反馈,我们改进了我们的模型,将其扩展到 200 多个国家和地区,并发布了稳定版本。我们于上个月将其带入 Gemini 生态系统,并在 Android Studio 中引入了 Gemini。它旨在让您更轻松、更快地构建高质量的 Android 应用程序。今年晚些时候,Android Studio 中的 Gemini 将使用 Gemini 1.5 Pro 支持多模态输入。
Gemini Nano 是我们能直接在用户的移动设备上执行任务的最高效模型。无论蜂窝网络覆盖范围如何,Gemini Nano 都可以实现低延迟响应并增强数据隐私。这是通过 AICore 来实现的。AICore 是一种管理设备上基础模型的系统服务,无需手动管理大型语言模型分发。目前,这两款产品均已在 Pixel 8 Pro 和三星 Galaxy S24 系列上提供,并且将于今年晚些时候推出对更多设备的支持。
通过跨平台共享应用程序的业务逻辑以及Android 系统对于 KMP 的出色支持都可以提高您的工作效率。您现在可以获得对于 DataStore 和 Room 等精选 Jetpack 库的支持,并今年晚些时候还会有更多支持。
打造令人叹为观止的自适应用户体验,优化性能,创建无缝过渡,并采用 Material 指导驱动的 API,实现可轻松跨设备调整的布局。简化输入处理,包括人工智能驱动的手写笔手写识别,并使用 Jetpack Glance 构建可定制的小部件。使用可调整大小的模拟器和 Compose UI 检查模式自如地进行测试,并通过 Android 15 生成的预览来让小部件的更易于发现。
如何更好地开发 - 让Web开发变得更简单
拥有 WebGPU和WebAssembly 的 Gemini Nano 现在又集成了 Chrome 桌面来提供新的内置的AI功能。他能让您跨海量设备构建具有可扩展性、经济性和增强隐私性的应用程序。加入我们的早期预览计划,利用新的 Web API 来塑造简单易用的人工智能开发的未来。
只需几行代码即可实现的新API,消除繁琐的页面加载并实现快速、无缝的浏览体验。该API支持在后台预取和预渲染页面,因此页面可在几毫秒内加载。为了进一步优化,可以利用人工智能智能预测导航模式,最大限度地提高资源预加载的效率。
Chrome Canary 126 中多页面应用程序的重大升级,可使用户在不同的网站架构中解锁流畅、顺滑的浏览体验。结合 Speculation Rules 和人工智能,View Transitions API 提供近乎即时无缝的页面转换,重新定义了为所有开发人员提供 Web 应用程序交互的可能性。
Chrome DevTools 控制台可为您提供由人工智能生成的深度见解。 Gemini 将为 DevTools 错误和警告提供解释和解决方案,显着简化您的调试过程。
构建、测试和发布由人工智能支持的全栈应用程序。满足用户的跨平台需求。
体验全栈、多平台和AI支持的应用的简化开发体验。现在向所有人开放,无需等待。使用预加载的模板轻松启动、导入现有项目或从头开始。 IDX 现在集成了 Chrome DevTools、Lighthouse 和 Cloud Run 等重要的新功能,并了简化多区域部署。
Flutter 3.22 和 Dart 3.4 支持大图像和并提高了应用程序性能。Android 的 Impeller 将光栅化性能提高 30%。通过支持 WASM 编译,Flutter 和 Dart 可在网络上提供令人惊叹的视觉效果和并高效运行的人工智能模型。全新的实验性语言功能 Dart Macros,旨在带给 Dart 开发人员更高效的工作体验。
使用 Firebase Data Connect 和 CloudSQL 将您的应用连接到 PostgreSQL 数据库。利用 Google Cloud 的安全性和可扩展性以及 Firebase 的应用托管(此项托管简化了在GitHub上的部署),来快速交付现代划的 Web 应用。尝试使用 Firebase Genkit 构建和监控可立即用于生产的 AI 功能,这些功能可与 Gemini 和 Gemma 模型配合使用。我们与 NVIDIA 的合作优化了 Gemma 模型的推理性能,因此您可以使用 Ollama 和 Gemma 在 RTX GPU 上本地运行 Genkit,以提高性能。
利用 Google 人工智能驱动的合规平台 Checks 来简化您的应用隐私和合规工作流程。检查代码合规性在您编写代码时监控并检测合规性问题 - 帮助确保应用程序的安全和质量。 iOS 和 Android 开发者现在就可以访问 Checks。
汇集 Google 的最佳资源、培训和规模效应,来增强开发者的体验。
探索新计划的优势,例如开发人员免费访问 Gemini,学习、搜索 Google 文档并与之聊天。如果您是 IDX 用户,您将能够创建3个额外的工作区,总共可创建5个工作区。而且,如果您还选择加入 Google Cloud Innovators 社区,您将获得交互式实验室的学分。学分可用于 Google Cloud Skills Boost。 今天就来注册吧。
我们致力于帮您实现伟大理想并将已有项目变为现实。通过工具和平台的持续创新,让我们共同建设未来。
查看所有 Google I/O 大会的公告和更新,并于太平洋时间5 月16日上午8点开始点播150多场会议和学习内容。 Google I/O 大会的魔力还在继续,请加入您居住地附近的 I/O Connect 或 I/O Extended 活动。