검색

30 결과

필터 지우기
  • 2025년 6월 26일 / AI

    Unlock deeper insights with the new Python client library for Data Commons

    Google has released a new Python client library for Data Commons – an open-source knowledge graph that unifies public statistical data, and enhances how data developers can leverage Data Commons by offering improved features, support for custom instances, and easier access to a vast array of statistical variables – developed with contributions from The ONE Campaign.

    data-commons-python-library-meta
  • 2025년 6월 24일 / Gemini

    노트북 강화: 이제 누구나 새로운 AI 우선 Google Colab 사용 가능

    새로운 AI 우선 Google Colab은 대화형 코딩을 위한 반복 쿼리, 자율 워크플로를 위한 차세대 Data Science Agent, 손쉬운 코드 변환 같은 기능의 개선을 통해 생산성을 향상시킵니다. 얼리 어답터들은 ML 프로젝트를 가속화하고, 코드를 더 빠르게 디버깅하며, 고품질 시각화를 손쉽게 생성하는 등 생산성을 대폭 끌어올릴 수 있었다고 전합니다.

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 2025년 6월 24일 / Kaggle

    Using KerasHub for easy end-to-end machine learning workflows with Hugging Face

    KerasHub enables users to mix and match model architectures and weights across different machine learning frameworks, allowing checkpoints from sources like Hugging Face Hub (including those created with PyTorch) to be loaded into Keras models for use with JAX, PyTorch, or TensorFlow. This flexibility means you can leverage a vast array of community fine-tuned models while maintaining full control over your chosen backend framework.

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning
  • 2025년 6월 23일 / Kaggle

    Multilingual innovation in LLMs: How open models help unlock global communication

    Developers adapt LLMs like Gemma for diverse languages and cultural contexts, demonstrating AI's potential to bridge global communication gaps by addressing challenges like translating ancient texts, localizing mathematical understanding, and enhancing cultural sensitivity in lyric translation.

    Multilingual innovation in LLMs: How open models help unlock global communication
  • 2025년 5월 20일 / Gemini

    완전히 새로운 재구성: AI 우선 Google Colab

    이번 Google I/O에서 Google Colab은 재구성된 AI 우선 버전을 선보입니다. 반복 쿼리 기능이 있는 Gemini 2.5 Flash 기반 에이전트 공동작업자, 업그레이드된 Data Science Agent, 손쉬운 코드 변환, 유연한 상호작용 방법을 갖춘 AI 우선 버전은 코딩 워크플로의 대대적인 향상을 목표로 합니다.

    Google Colab's reimagined Al-first experience
  • 2025년 4월 15일 / Cloud

    Apigee, APIM Extension Processor 정식 버전 발표

    Apigee Extension Processor는 Apigee가 gRPC 스트리밍을 관리하고 Cloud Load Balancing을 통해 Google Cloud 서비스와 통합할 수 있도록 함으로써 Apigee의 기능을 향상시킵니다. 이를 통해 더욱 광범위한 백엔드 서비스에 Apigee 정책을 적용하고 Google Cloud 인프라에 대한 보안 액세스를 개선할 수 있습니다.

    Apigee-API-Hub-Feature
  • 2025년 4월 8일 / Cloud

    관리형 I/O로 간소화된 Dataflow 커넥터

    Google Cloud Dataflow의 관리형 I/O는 커넥터를 자동으로 최신 버전으로 업데이트하고 표준화된 API를 제공하여 Apache Beam I/O 커넥터 사용을 쉽게 만들어 줍니다. 이는 Dataflow용 커넥터를 최적화하고 효율적인 성능을 보장하며 수동 구성의 필요성을 줄여 사용자가 파이프라인 로직에 집중할 수 있도록 합니다.

    Cloud-2-meta
  • 2025년 3월 25일 / Gemini

    TxGemma 소개: 치료제 개발을 개선하기 위한 개방형 모델

    Google DeepMind는 Gemma를 기반으로 개발되어 치료제 물성을 예측하는 TxGemma와 Gemini 2.0 Pro를 기반으로 개발되어 고급 도구로 복잡한 연구 문제를 해결하는 Agentic-Tx를 출시합니다.

    TxGemma
  • 2025년 3월 13일 / Gemini

    Gemini로 Google I/O 퍼즐을 위한 보너스 세계의 문을 열다

    Google I/O 2025 퍼즐이 Gemini API를 사용해 보너스 세계를 위한 역동적인 수수께끼를 생성하여 플레이어 참여도와 확장성을 증대했습니다. 여기서는 창의성, 디자인, 구현 전략을 포함하여 개발자가 Gemini API를 효과적으로 사용하는 방법에 대해 알게 된 내용을 소개합니다.

    IO-2025-puzzle-how-its-made
  • 2025년 1월 15일 / AI

    Vertex AI RAG 엔진: 개발자 도구

    관리형 오케스트레이션 서비스인 Vertex AI RAG 엔진은 관련 정보를 검색하고 대규모 언어 모델에 제공하는 프로세스를 간소화합니다. 이를 통해 개발자는 사실에 기반한 응답을 보장하는 강력하고 기반이 있는 생성 AI 앱을 구축할 수 있습니다.

    Cloud-Vertex-AI-Sequence-Light