搜索

30 结果

清除过滤器
  • 2025年6月26日 / AI

    借助 Data Commons 新推出的 Python 客户端库,挖掘数据深层价值

    Google 发布了 Data Commons 的新 Python 客户端库。Data Commons 是一个开源的知识图谱,整合了公共统计数据,并通过提供改进的功能、支持自定义实例以及实现对海量统计变量的便捷访问,提升了数据开发者使用 Data Commons 的体验。该项目的开发过程得到了 The ONE Campaign 的支持。

    data-commons-python-library-meta
  • 2025年6月24日 / Kaggle

    结合使用 KerasHub 与 Hugging Face,轻松实现端到端机器学习工作流

    KerasHub 使用户能够混合搭配不同机器学习框架的模型架构和权重,支持将来自 Hugging Face Hub 等来源的检查点(包括使用 PyTorch 创建的检查点)加载到 Keras 模型中,并与 JAX、PyTorch 或 TensorFlow 配合使用。这种灵活性意味着,您可以充分利用大量经过社区微调的模型,同时完全掌控您所选择的后端框架。

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning
  • 2025年6月24日 / Gemini

    强效助力您的笔记本电脑:全新 AI 优先的 Google Colab 现已面向所有用户开放

    全新 AI 优先的 Google Colab 通过多项功能带来的改进提高工作效率,这些功能包括支持对话式编码的迭代查询、可实现自主工作流的新一代数据科学代理,以及轻松省心的代码转换等等。尝鲜者表示他们可借助 AI 优先的 Google Colab 加速推进 ML 项目,更快调试代码并轻松创建高质量可视化内容,其工作效率因此取得飞跃式提升。

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 2025年6月23日 / Kaggle

    LLM 多语言创新:开放式模型如何助力解锁全球沟通

    开发者针对不同的语言和文化背景对 Gemma 等 LLM 进行了调整,展现了 AI 在解决全球沟通障碍方面的潜能。AI 可解决翻译古代文本、本地化数词理解和提升歌词翻译的文化敏感性等多种难题,进而促进全球沟通。

    Multilingual innovation in LLMs: How open models help unlock global communication
  • 2025年5月20日 / Gemini

    全面重塑:AI 优先的 Google Colab

    Google Colab 将在 Google I/O 大会上推出重新设计的 AI 优先版本,其亮点包括采用 Gemini 2.5 Flash 的智能协作助手(支持迭代查询功能)、升级的数据科学代理、轻松实现代码转换以及灵活的交互方式,旨在显著改善编码工作流。

    Google Colab's reimagined Al-first experience
  • 2025年4月15日 / Cloud

    Apigee 宣布推出 APIM Extension Processor 的正式版

    Apigee Extension Processor 增强了 Apigee 的功能,使其能够管理 gRPC 流式传输并通过 Cloud Load Balancing 与 Google Cloud 服务集成,从而将 Apigee 策略应用至更广泛的后端服务,同时改善对 Google Cloud 基础设施的安全访问。

    Apigee-API-Hub-Feature
  • 2025年4月8日 / Cloud

    具有代管式 I/O 的简化版 Dataflow 连接器

    Google Cloud Dataflow 的代管式 I/O 可自动将连接器更新到最新版本并提供标准化 API,让使用 Apache Beam I/O 连接器变得更加轻松,同时还能专门针对 Dataflow 优化连接器,以确保高效性能并减少对于手动配置的需求,让用户能够腾出手来专注于流水线逻辑。

    Cloud-2-meta
  • 2025年3月25日 / Gemini

    TxGemma 现已推出:该开放模型可改进疗法开发

    Google DeepMind 发布了基于 Gemma 的 TxGemma 和由 Gemini 2.0 Pro 提供支持的 Agentic-Tx,前者可预测疗法特性,后者可通过高级工具解决复杂的研究问题。

    TxGemma
  • 2025年3月13日 / Gemini

    借助 Gemini 解锁 Google I/O 谜题的奖励关卡

    2025 年 Google I/O 谜题使用 Gemini API 来为奖励关卡生成动态谜题,提升了玩家参与度和可扩展性。以下是我们的开发者在有效使用 Gemini API 方面所学到的知识,包括创造力、设计和实施策略。

    IO-2025-puzzle-how-its-made
  • 2025年1月15日 / AI

    Vertex AI RAG Engine:开发者工具

    Vertex AI RAG Engine 是一项托管编排服务,可简化检索相关信息并将其提供给大型语言模型的过程。这使得开发人员能够构建强大、接地气的生成式人工智能应用程序,确保响应确实接地气。

    Cloud-Vertex-AI-Sequence-Light