Penelusuran

181 hasil

Hapus filter
  • 14 JULI 2025 / Gemini

    Gemini Embedding now generally available in the Gemini API

    The Gemini Embedding text model is now generally available in the Gemini API and Vertex AI. This versatile model has consistently ranked #1 on the MTEB Multilingual leaderboard since its experimental launch in March, supports over 100 languages, has a 2048 maximum input token length, and is priced at $0.15 per 1M input tokens.

    Gemini Embedding now generally available in the Gemini API
  • 10 JULI 2025 / Gemini

    Announcing GenAI Processors: Build powerful and flexible Gemini applications

    GenAI Processors is a new open-source Python library from Google DeepMind designed to simplify the development of AI applications, especially those handling multimodal input and requiring real-time responsiveness, by providing a consistent "Processor" interface for all steps from input handling to model calls and output processing, for seamless chaining and concurrent execution.

    Announcing GenAI Processors: Streamline your Gemini application development
  • 10 JULI 2025 / Cloud

    Advancing agentic AI development with Firebase Studio

    Updates in Firebase Studio include new Agent modes, foundational support for the Model Context Protocol (MCP), and Gemini CLI integration, all designed to redefine AI-assisted development allow developers to create full-stack applications from a single prompt and integrate powerful AI capabilities directly into their workflow.

    Advancing agentic AI development with Firebase Studio
  • 9 JULI 2025 / Gemma

    T5Gemma: Koleksi model Gemma baru berbasis encoder-decoder

    T5Gemma adalah keluarga baru model LLM berbasis encoder-decoder yang dikembangkan melalui konversi dan adaptasi model hanya-decoder terlatih yang dibangun di atas framework Gemma 2. Model ini menawarkan performa dan efisiensi yang lebih unggul dibandingkan model hanya-decoder, khususnya untuk tugas yang membutuhkan pemahaman input yang mendalam, seperti peringkasan dan penerjemahan.

    T5Gemma: A New Collection of Encoder-Decoder Gemma Models
  • 7 JULI 2025 / Gemini

    Mode Batch di API Gemini: Memproses lebih banyak dengan biaya lebih sedikit

    Mode batch baru dalam API Gemini didesain untuk beban kerja AI dengan throughput tinggi dan tidak kritis terhadap latensi, menyederhanakan tugas besar dengan menangani penjadwalan dan pemrosesan, dan membuat tugas seperti analisis data, kreasi konten massal, dan evaluasi model menjadi lebih hemat biaya dan skalabel, sehingga developer dapat memproses data bervolume besar secara efisien.

    Scale your AI workloads with batch mode in the Gemini API
  • 26 JUNI 2025 / Gemma

    Memperkenalkan Gemma 3n: Panduan developer

    Model Gemma 3n telah sepenuhnya dirilis, melanjutkan kesuksesan model Gemma sebelumnya dan menghadirkan kemampuan multimodal canggih langsung di perangkat edge dengan performa luar biasa. Jelajahi inovasi Gemma 3n, termasuk arsitektur yang mengutamakan seluler, teknologi MatFormer, Per-Layer Embeddings, KV Cache Sharing, dan audio serta enkoder visi MobileNet-V5 yang baru, dan pelajari bagaimana developer bisa mulai membangun dengan Gemma 3n sekarang juga.

    Introducing Gemma 3n: The Developer Guide
  • 26 JUNI 2025 / AI

    Membuka insight yang lebih mendalam dengan library klien Python terbaru untuk Data Commons

    Google telah merilis library klien Python terbaru untuk Data Commons – sebuah grafik pengetahuan open source yang menyatukan data statistik publik, dan meningkatkan kemampuan developer data untuk memanfaatkan Data Commons dengan menawarkan fitur yang lebih baik, dukungan untuk instance khusus, dan akses yang lebih mudah ke beragam variabel statistik – yang dikembangkan dengan kontribusi dari The ONE Campaign.

    data-commons-python-library-meta
  • 25 JUNI 2025 / Gemini

    Simulasi sistem operasi neural dengan Gemini 2.5 Flash-Lite

    Prototipe riset menyimulasikan sistem operasi neural ini menghasilkan UI secara real-time, menyesuaikan diri dengan interaksi pengguna menggunakan Gemini 2.5 Flash-Lite. Sistem ini memanfaatkan pelacakan interaksi untuk meningkatkan kesadaran kontekstual, streaming UI untuk responsivitas, dan mencapai statefulness melalui grafik UI dalam memori.

    Behind the prototype: Simulating a neural operating system with Gemini
  • 24 JUNI 2025 / Gemini

    Tingkatkan notebook Anda: Google Colab pertama berbasis AI yang baru kini tersedia untuk semua orang

    Google Colab pertama berbasis AI yang baru meningkatkan produktivitas dengan peningkatan yang didukung sejumlah fitur, seperti kueri iteratif untuk coding percakapan, Data Science Agent generasi berikutnya untuk alur kerja otonom, dan transformasi kode yang mudah. Pengguna awal melaporkan peningkatan produktivitas yang dramatis, percepatan project ML, proses debug kode yang lebih cepat, dan dengan mudah membuat visualisasi berkualitas tinggi.

    Supercharge your notebooks: The new AI-first Google Colab is now available to everyone
  • 24 JUNI 2025 / Kaggle

    Menggunakan KerasHub untuk alur kerja machine learning menyeluruh yang mudah dengan Hugging Face

    KerasHub memungkinkan pengguna untuk memadupadankan arsitektur model dan bobot di berbagai framework machine learning, yang memungkinkan checkpoint dari sumber seperti Hugging Face Hub (termasuk yang dibuat dengan PyTorch) untuk dimuat ke dalam model Keras untuk digunakan dengan JAX, PyTorch, atau TensorFlow. Fleksibilitas ini berarti Anda dapat memanfaatkan berbagai array model komunitas yang telah disempurnakan sambil tetap mempertahankan kontrol penuh atas framework backend yang Anda pilih.

    How to load model weights from SafeTensors into KerasHub for multi-framework machine learning