32 hasil
MAR 13, 2025 / Gemini
Teka-teki Google I/O 2025 menggunakan Gemini API untuk membuat teka-teki dinamis untuk dunia bonus, meningkatkan interaksi pemain dan skalabilitas. Inilah yang dipelajari developer kami dalam menggunakan Gemini API secara efektif, termasuk kreativitas, desain, dan strategi implementasi.
MAR 12, 2025 / Gemma
Gemma 3 1B, model bahasa kecil baru untuk aplikasi web dan seluler melalui Google AI Edge, kini telah tersedia, dengan peningkatan efisiensi, performa yang lebih baik, dan ketersediaan offline.
MAR 06, 2025 / Gemini
Postingan blog ini memperkenalkan fitur eksekusi kode Gemini, yang memungkinkan model AI membuat dan menjalankan kode Python untuk tugas, seperti menyelesaikan persamaan, analisis data, dan membuat visualisasi.
FEB 13, 2025 / Gemma
Panduan praktis untuk membangun sistem Agentic AI berbasis Gemma 2 – tipe AI yang bisa mengambil keputusan sendiri dan menggunakan alat eksternal untuk mencapai tujuannya – yang bisa menghasilkan konten dinamis untuk dunia game fiksi.
DEC 23, 2024 / AI
Multimodal Live API untuk Gemini 2.0 memungkinkan interaksi multimodal real-time antara manusia dan komputer, dan bisa digunakan untuk membangun asisten virtual real-time serta alat edukasi adaptif.
DEC 23, 2024 / AI
Pelajari cara membangun alat penelusuran visual menggunakan Google Multimodal Embeddings API dan jelajahi cara menerapkan teknologi ini untuk menelusuri gambar, slide, dan lainnya.
DEC 18, 2024 / Gemini
Jelajahi tiga aplikasi starter Gemini yang menyediakan alat siap produksi bagi developer untuk membangun project berteknologi AI dengan fungsionalitas open source seperti analisis spasial dan interaksi video.
DEC 18, 2024 / Gemini
Pelajari cara membangun aplikasi Go menggunakan Project IDX, sebuah ruang kerja berbasis AI untuk pengembangan aplikasi full-stack.
NOV 19, 2024 / Firebase
Jelajahi alat dan sumber daya pengembangan aplikasi berteknologi AI terbaru dari Firebase, termasuk demo, dokumentasi, dan praktik terbaik di Firebase Demo Day 2024.
NOV 13, 2024 / Gemma
Pengelompokan berkelanjutan vLLM dan manajer model Dataflow mengoptimalkan penyajian LLM dan menyederhanakan proses penerapan, memberikan kombinasi yang kuat bagi pengembang untuk membangun saluran inferensi LLM berkinerja tinggi dengan lebih efisien.