검색

18 결과

필터 지우기
  • 2025년 6월 24일 / Gemini

    노트북 강화: 이제 누구나 새로운 AI 우선 Google Colab 사용 가능

    새로운 AI 우선 Google Colab은 대화형 코딩을 위한 반복 쿼리, 자율 워크플로를 위한 차세대 Data Science Agent, 손쉬운 코드 변환 같은 기능의 개선을 통해 생산성을 향상시킵니다. 얼리 어답터들은 ML 프로젝트를 가속화하고, 코드를 더 빠르게 디버깅하며, 고품질 시각화를 손쉽게 생성하는 등 생산성을 대폭 끌어올릴 수 있었다고 전합니다.

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 2025년 6월 24일 / Kaggle

    Using KerasHub for easy end-to-end machine learning workflows with Hugging Face

    KerasHub enables users to mix and match model architectures and weights across different machine learning frameworks, allowing checkpoints from sources like Hugging Face Hub (including those created with PyTorch) to be loaded into Keras models for use with JAX, PyTorch, or TensorFlow. This flexibility means you can leverage a vast array of community fine-tuned models while maintaining full control over your chosen backend framework.

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning
  • 2025년 6월 23일 / Kaggle

    LLM의 다국어 혁신: 개방형 모델이 글로벌 커뮤니케이션을 지원하는 방법

    개발자들은 Gemma 같은 LLM을 다양한 언어와 문화적 컨텍스트에 맞게 조정합니다. 이를 통해 고대 문자 번역, 수학적 이해의 지역화, 가사 번역에서의 문화적 감수성 향상 등의 문제를 해결함으로써 글로벌 커뮤니케이션 격차 해소에 있어 AI의 잠재력을 입증합니다.

    Multilingual innovation in LLMs: How open models help unlock global communication
  • 2025년 5월 20일 / Gemini

    완전히 새로운 재구성: AI 우선 Google Colab

    이번 Google I/O에서 Google Colab은 재구성된 AI 우선 버전을 선보입니다. 반복 쿼리 기능이 있는 Gemini 2.5 Flash 기반 에이전트 공동작업자, 업그레이드된 Data Science Agent, 손쉬운 코드 변환, 유연한 상호작용 방법을 갖춘 AI 우선 버전은 코딩 워크플로의 대대적인 향상을 목표로 합니다.

    Google Colab's reimagined Al-first experience
  • 2025년 4월 15일 / Cloud

    Apigee, APIM Extension Processor 정식 버전 발표

    Apigee Extension Processor는 Apigee가 gRPC 스트리밍을 관리하고 Cloud Load Balancing을 통해 Google Cloud 서비스와 통합할 수 있도록 함으로써 Apigee의 기능을 향상시킵니다. 이를 통해 더욱 광범위한 백엔드 서비스에 Apigee 정책을 적용하고 Google Cloud 인프라에 대한 보안 액세스를 개선할 수 있습니다.

    Apigee-API-Hub-Feature
  • 2025년 4월 8일 / Cloud

    관리형 I/O로 간소화된 Dataflow 커넥터

    Google Cloud Dataflow의 관리형 I/O는 커넥터를 자동으로 최신 버전으로 업데이트하고 표준화된 API를 제공하여 Apache Beam I/O 커넥터 사용을 쉽게 만들어 줍니다. 이는 Dataflow용 커넥터를 최적화하고 효율적인 성능을 보장하며 수동 구성의 필요성을 줄여 사용자가 파이프라인 로직에 집중할 수 있도록 합니다.

    Cloud-2-meta
  • 2025년 3월 25일 / Gemini

    TxGemma 소개: 치료제 개발을 개선하기 위한 개방형 모델

    Google DeepMind는 Gemma를 기반으로 개발되어 치료제 물성을 예측하는 TxGemma와 Gemini 2.0 Pro를 기반으로 개발되어 고급 도구로 복잡한 연구 문제를 해결하는 Agentic-Tx를 출시합니다.

    TxGemma
  • 2025년 3월 13일 / Gemini

    Gemini로 Google I/O 퍼즐을 위한 보너스 세계의 문을 열다

    Google I/O 2025 퍼즐이 Gemini API를 사용해 보너스 세계를 위한 역동적인 수수께끼를 생성하여 플레이어 참여도와 확장성을 증대했습니다. 여기서는 창의성, 디자인, 구현 전략을 포함하여 개발자가 Gemini API를 효과적으로 사용하는 방법에 대해 알게 된 내용을 소개합니다.

    IO-2025-puzzle-how-its-made
  • 2024년 12월 17일 / Cloud

    Apigee API 허브 정식 출시

    Apigee API 허브는 전체 API 생태계를 위한 중앙 집중식 저장소로, 단일 정보 소스를 제공합니다.

    Apigee-API-Hub-Feature
  • 2024년 11월 19일 / Firebase

    Firebase Demo Day ‘24에서 AI 기반 앱 개발 및 실행 방법을 알아보세요

    Firebase Demo Day 2024에서 데모, 문서, 모범 사례 등 Firebase의 새로운 AI 기반 앱 개발 도구와 리소스를 살펴보세요.

    Firebase Demo Day