LiteRT (kependekan dari Lite Runtime) adalah nama baru untuk TensorFlow Lite (TFLite). Meskipun namanya baru, ini masih merupakan runtime tepercaya dan berperforma tinggi untuk AI pada perangkat, kini dengan visi yang lebih luas.
Sejak debutnya pada tahun 2017, TFLite telah memungkinkan developer untuk menghadirkan pengalaman berteknologi ML ke lebih dari 100 ribu aplikasi yang berjalan di 2,7 miliar perangkat. Baru-baru ini, TFLite telah berkembang melampaui cikal bakal TensorFlow untuk mendukung model yang ditulis dalam PyTorch, JAX, dan Keras dengan performa terbaik. Nama LiteRT menggambarkan visi multi-framework untuk masa depan: memungkinkan developer memulai dengan berbagai framework populer dan menjalankan model mereka di perangkat dengan performa yang luar biasa.
LiteRT, bagian dari rangkaian alat Google AI Edge, adalah runtime yang memungkinkan Anda menerapkan model ML dan AI dengan mulus di Android, iOS, dan perangkat yang disematkan. Dengan alat konversi dan pengoptimalan model yang tangguh dari AI Edge, Anda bisa menyiapkan model open-source dan model khusus untuk pengembangan di perangkat.
Perubahan ini akan diluncurkan secara bertahap. Mulai hari ini, Anda akan melihat nama LiteRT tercantum dalam dokumentasi developer, yang berpindah ke ai.google.dev/edge/litert, dan dalam referensi lain di situs AI Edge. Dokumentasi di tensorflow.org/lite sekarang dialihkan ke halaman terkait di ai.google.dev/edge/litert.
Merek utama TensorFlow tidak akan terpengaruh, begitu juga dengan aplikasi yang sudah menggunakan TensorFlow Lite.
Tujuan kami adalah agar perubahan ini tidak terlalu mengganggu, dan hanya membutuhkan sesedikit mungkin ubahan kode dari developer.
Jika saat ini Anda menggunakan TensorFlow Lite melalui paket, Anda harus mengupdate setiap dependensi untuk menggunakan LiteRT yang baru dari Maven, PyPi, Cocoapods.
Jika saat ini Anda menggunakan TensorFlow Lite melalui Layanan Google Play, Anda tidak perlu melakukan perubahan apa pun.
Jika saat ini Anda membangun TensorFlow Lite dari sumbernya, silakan lanjutkan membangun dari repo TensorFlow hingga kode sepenuhnya dipindahkan ke repo LiteRT yang baru akhir tahun ini.
1. Apa yang berubah selain nama baru, LiteRT?
Untuk saat ini, satu-satunya perubahan adalah nama baru, LiteRT. Aplikasi produksi Anda tidak akan terpengaruh. Dengan nama dan visi baru, nantikan update lainnya yang akan hadir ke LiteRT, yang meningkatkan cara Anda menerapkan model ML klasik, LLM, dan model difusi dengan akselerasi GPU dan NPU di berbagai platform.
2. Apa yang terjadi pada TensorFlow Lite Support Library (termasuk TensorFlow Lite Tasks)?
Library dukungan TensorFlow Lite dan TensorFlow Lite Tasks akan tetap berada di repositori /tensorflow untuk saat ini. Kami menyarankan Anda untuk menggunakan MediaPipe Tasks untuk pengembangan di masa mendatang.
3. Apa yang terjadi pada TensorFlow Lite Model Maker?
Anda bisa terus mengakses TFLite Model Maker melalui https://pypi.org/project/tflite-model-maker/
4. Bagaimana jika saya ingin berkontribusi kode?
Untuk saat ini, silakan berkontribusi kode ke repositori TensorFlow Lite yang sudah ada. Kami akan membuat pengumuman terpisah ketika kami siap untuk menerima kontribusi ke repositori LiteRT.
5. Apa yang terjadi dengan ekstensi file dan format file .tflite?
Tidak ada perubahan terhadap format atau ekstensi file .tflite. Alat konversi akan terus menghasilkan output file flatbuffer .tflite, dan file .tflite akan dapat dibaca oleh LiteRT.
6. Bagaimana cara mengonversi model ke format .tflite?
Untuk Tensorflow, Keras, dan Jax, Anda bisa terus menggunakan alur yang sama. Untuk dukungan PyTorch, lihat ai-edge-torch.
7. Apakah akan ada perubahan pada class dan metode?
Tidak. Selain nama paket, Anda tidak perlu mengubah kode apa pun yang telah Anda tulis untuk saat ini.
8. Apakah akan ada perubahan pada TensorFlow.js?
Tidak, TensorFlow.js akan tetap berfungsi secara independen sebagai bagian dari codebase Tensorflow.
9. Aplikasi produksi saya menggunakan TensorFlow Lite. Apakah akan terpengaruh?
Aplikasi yang telah men-deploy TensorFlow Lite tidak akan terpengaruh. Ini termasuk aplikasi yang mengakses TensorFlow Lite melalui Layanan Google Play. (TFLite dikompilasi ke dalam aplikasi pada waktu build, jadi setelah di-deploy, aplikasi tidak memiliki dependensi).
10. Mengapa “LiteRT”?
“LiteRT” (kependekan dari Lite Runtime) mencerminkan warisan TensorFlow Lite, “lite” perintis, runtime di perangkat, ditambah komitmen Google untuk mendukung perkembangan yang pesat saat ini ekosistem multi-kerangka.
11. Apakah TensorFlow Lite masih secara aktif dikembangkan?
Ya, tetapi dengan nama LiteRT. Pengembangan aktif akan terus berlanjut pada runtime (sekarang disebut LiteRT), serta alat konversi dan pengoptimalan. Untuk memastikan Anda menggunakan versi runtime terbaru, silakan gunakan LiteRT.
12. Di mana saya bisa melihat contoh penerapan LiteRT?
Anda bisa menemukan contoh untuk Python, Android, dan iOS di repo contoh LiteRT resmi.
Kami sangat antusias dengan masa depan ML di perangkat, dan berkomitmen pada visi kami untuk menjadikan LiteRT sebagai runtime yang paling mudah digunakan dan berkinerja paling tinggi untuk berbagai model.