60 hasil
6 FEB. 2025 / Gemini
Imagen 3 – kini tersedia di Google AI Studio dan Gemini API – menawarkan kepada developer pembuatan gambar termutakhir dengan gambar yang lebih cerah dan lebih baik dengan gaya beragam, serta pembuatan gambar yang disederhanakan melalui prompt teks.
15 JAN. 2025 / AI
Vertex AI RAG Engine, layanan orkestrasi terkelola, menyederhanakan proses pengambilan dan pemberian informasi yang relevan ke Model Bahasa Besar. Hal ini memungkinkan pengembang untuk membangun aplikasi AI generatif yang kuat dan membumi untuk memastikan respons yang diberikan didasarkan pada fakta.
23 DES. 2024 / AI
Multimodal Live API untuk Gemini 2.0 memungkinkan interaksi multimodal real-time antara manusia dan komputer, dan bisa digunakan untuk membangun asisten virtual real-time serta alat edukasi adaptif.
20 DES. 2024 / Gemma
Tim AI Singapore dan INSAIT memanfaatkan Gemma, sebuah rangkaian model bahasa open source, untuk membuat LLM yang disesuaikan dengan kebutuhan unik komunitas mereka, dalam sebuah pertunjukan inovasi dan inklusivitas AI.
18 DES. 2024 / Gemini
Pelajari cara membangun aplikasi Go menggunakan Project IDX, sebuah ruang kerja berbasis AI untuk pengembangan aplikasi full-stack.
18 DES. 2024 / Gemini
Jelajahi tiga aplikasi starter Gemini yang menyediakan alat siap produksi bagi developer untuk membangun project berteknologi AI dengan fungsionalitas open source seperti analisis spasial dan interaksi video.
17 DES. 2024 / Cloud
Apigee API hub adalah repositori terpusat untuk seluruh ekosistem API Anda, yang menyediakan satu sumber kebenaran.
21 NOV. 2024 / Mobile
Para pemenang Kompetisi Developer Gemini API memperlihatkan potensi Gemini API dalam menciptakan solusi yang berdampak besar, mulai dari asisten pribadi berteknologi AI hingga alat untuk aksesibilitas dan kreativitas.
19 NOV. 2024 / Firebase
Jelajahi alat dan sumber daya pengembangan aplikasi berteknologi AI terbaru dari Firebase, termasuk demo, dokumentasi, dan praktik terbaik di Firebase Demo Day 2024.
13 NOV. 2024 / Gemma
Pengelompokan berkelanjutan vLLM dan manajer model Dataflow mengoptimalkan penyajian LLM dan menyederhanakan proses penerapan, memberikan kombinasi yang kuat bagi pengembang untuk membangun saluran inferensi LLM berkinerja tinggi dengan lebih efisien.