Tetap teratur dengan koleksi
Simpan dan kategorikan konten berdasarkan preferensi Anda.
Model Kustom
plat_iosplat_android
Jika Anda adalah developer ML berpengalaman dan model ML Kit yang dibuat sebelumnya
tidak sesuai dengan kebutuhan,
Anda dapat menggunakan model
TensorFlow Lite kustom dengan ML Kit.
Hosting model TensorFlow Lite Anda menggunakan Firebase atau paketkan model tersebut dengan aplikasi Anda.
Kemudian, gunakan ML Kit SDK untuk melakukan inferensi menggunakan versi terbaik yang tersedia
dari model kustom Anda.
Jika model dihosting di Firebase, ML Kit akan mengupdate pengguna Anda dengan versi terbaru secara otomatis.
Hosting model Anda di Firebase untuk mengurangi ukuran biner aplikasi, dan untuk memastikan aplikasi selalu menggunakan versi terbaru yang tersedia dari model Anda.
Inferensi ML di perangkat
Jalankan inferensi pada aplikasi iOS atau Android dengan menggunakan ML Kit SDK untuk menjalankan model TensorFlow Lite kustom. Model dapat dipaketkan dengan aplikasi, dihosting di Cloud, atau keduanya.
Fallback model otomatis
Tentukan beberapa sumber model; gunakan model yang disimpan secara lokal jika model yang dihosting di Cloud tidak tersedia.
Update model otomatis
Konfigurasikan kondisi sehingga aplikasi akan mendownload versi baru model Anda secara otomatis saat perangkat pengguna sedang idle, mengisi daya, atau tersambung ke koneksi Wi-Fi.
Alur implementasi
Melatih model TensorFlow
Buat dan latih model kustom menggunakan TensorFlow. Atau, latih ulang model yang ada yang memberikan solusi terhadap masalah yang mirip dengan yang ingin Anda capai.
Lihat Panduan Developer TensorFlow Lite.
Mengonversi model ke TensorFlow Lite
Ubah model Anda dari format TensorFlow standar ke TensorFlow Lite dengan membekukan grafik, lalu menggunakan TensorFlow Optimizing Converter (TOCO). Lihat Panduan Developer TensorFlow Lite.
Menghosting model TensorFlow Lite di Firebase
Opsional: Jika Anda menghosting model TensorFlow Lite di Firebase dan menyertakan ML Kit SDK di aplikasi, ML Kit akan terus mengupdate pengguna dengan versi terbaru dari aplikasi Anda. Anda dapat mengonfigurasi ML Kit agar mendownload update model secara otomatis saat perangkat pengguna sedang idle atau mengisi daya, atau tersambung ke koneksi Wi-Fi.
Menggunakan model TensorFlow Lite untuk inferensi
Gunakan API model kustom pada ML Kit di aplikasi iOS atau Android Anda untuk melakukan inferensi dengan model yang dihosting Firebase atau yang dipaketkan dalam aplikasi.
[[["Mudah dipahami","easyToUnderstand","thumb-up"],["Memecahkan masalah saya","solvedMyProblem","thumb-up"],["Lainnya","otherUp","thumb-up"]],[["Informasi yang saya butuhkan tidak ada","missingTheInformationINeed","thumb-down"],["Terlalu rumit/langkahnya terlalu banyak","tooComplicatedTooManySteps","thumb-down"],["Sudah usang","outOfDate","thumb-down"],["Masalah terjemahan","translationIssue","thumb-down"],["Masalah kode / contoh","samplesCodeIssue","thumb-down"],["Lainnya","otherDown","thumb-down"]],["Terakhir diperbarui pada 2025-08-04 UTC."],[],[],null,["Custom Models \nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]