Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Modelos personalizados
plat_iosplat_android
Si eres un desarrollador con experiencia en el AA, pero los modelos integrados del ML Kit no satisfacen tus necesidades, puedes usar un modelo personalizado de TensorFlow Lite con el ML Kit.
Aloja tus modelos de TensorFlow Lite con Firebase o empaquétalos con tu app. Luego, usa el SDK del ML Kit para realizar inferencias. Para ello, usa la mejor versión disponible de tu modelo personalizado.
Si alojas tu modelo con Firebase, el ML Kit actualiza automáticamente a tus usuarios con la versión más reciente.
Aloja tus modelos con Firebase para reducir el tamaño binario de tu app y para asegurarte de que esta siempre utilice la versión disponible más reciente de tu modelo.
Inferencia de AA en el dispositivo
Realiza inferencias en una app para iOS o Android mediante el uso del SDK del ML Kit para ejecutar tu modelo de TensorFlow Lite personalizado. El modelo puede asociarse con la app, alojarse en Cloud, o ambas opciones.
Resguardo automático del modelo
Especifica múltiples fuentes del modelo; usa un modelo almacenado localmente cuando no esté disponible el alojado en la nube.
Actualizaciones de modelo automáticas
Configura las condiciones según las cuales tu app debe descargar automáticamente nuevas versiones de tu modelo: cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.
Ruta de implementación
Entrena tu modelo de TensorFlow
Crea y entrena un modelo personalizado con TensorFlow. O bien, vuelve a entrenar un modelo existente que solucione un problema similar a lo que quieres lograr.
Consulta la Guía para desarrolladores de TensorFlow Lite.
Convierte el modelo en TensorFlow Lite
Para convertir tu modelo de un formato estándar de TensorFlow a TensorFlow Lite, puedes inmovilizar el gráfico y usar el Convertidor de optimización de TensorFlow (TOCO). Consulta la Guía para desarrolladores de TensorFlow Lite.
Aloja tu modelo de TensorFlow Lite a través de Firebase
Opcional: Cuando alojas tu modelo de TensorFlow Lite a través de Firebase y agregas el SDK del ML Kit, este último mantiene a tus usuarios actualizados con la versión más reciente de tu modelo. Puedes configurar el ML Kit para que descargue actualizaciones para el modelo de manera automática cuando el dispositivo del usuario esté inactivo o cargándose, o cuente con una conexión Wi-Fi.
Usa el modelo de TensorFlow Lite para realizar inferencias
Usa las API del modelo personalizado del ML Kit en tu app para iOS o Android a fin de realizar inferencias con el modelo alojado en Firebase o asociado con la app.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-08-04 (UTC)"],[],[],null,["Custom Models \nplat_ios plat_android \nIf you're an experienced ML developer and ML Kit's pre-built models don't\nmeet your needs, you can use a custom\n[TensorFlow Lite](//www.tensorflow.org/lite/) model with\nML Kit.\n\nHost your TensorFlow Lite models using Firebase or package them with your app.\nThen, use the ML Kit SDK to perform inference using the best-available\nversion of your custom model.\nIf you host your model with Firebase, ML Kit automatically updates your users\nwith the latest version.\n\n[iOS](/docs/ml-kit/ios/use-custom-models)\n[Android](/docs/ml-kit/android/use-custom-models)\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|-------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| TensorFlow Lite model hosting | Host your models using Firebase to reduce your app's binary size and to make sure your app is always using the most recent version available of your model |\n| On-device ML inference | Perform inference in an iOS or Android app by using the ML Kit SDK to run your custom TensorFlow Lite model. The model can be bundled with the app, hosted in the Cloud, or both. |\n| Automatic model fallback | Specify multiple model sources; use a locally-stored model when the Cloud-hosted model is unavailable |\n| Automatic model updates | Configure the conditions under which your app automatically downloads new versions of your model: when the user's device is idle, is charging, or has a Wi-Fi connection |\n\nImplementation path\n\n|---|---------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | **Train your TensorFlow model** | Build and train a custom model using TensorFlow. Or, re-train an existing model that solves a problem similar to what you want to achieve. See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Convert the model to TensorFlow Lite** | Convert your model from standard TensorFlow format to TensorFlow Lite by freezing the graph, and then using the TensorFlow Optimizing Converter (TOCO). See the TensorFlow Lite [Developer Guide](//www.tensorflow.org/mobile/tflite/devguide). |\n| | **Host your TensorFlow Lite model with Firebase** | Optional: When you host your TensorFlow Lite model with Firebase and include the ML Kit SDK in your app, ML Kit keeps your users up to date with the latest version of your model. You can configure ML Kit to automatically download model updates when the user's device is idle or charging, or has a Wi-Fi connection. |\n| | **Use the TensorFlow Lite model for inference** | Use ML Kit's custom model APIs in your iOS or Android app to perform inference with your Firebase-hosted or app-bundled model. |"]]