Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Kit de AA para Firebase
plat_iosplat_android
Usa el aprendizaje automático en tus aplicaciones para resolver problemas reales.
El Kit de AA es un SDK móvil que lleva la experiencia de Google en el aprendizaje automático a las aplicaciones de iOS y Android a través de un paquete eficaz, pero fácil de usar. Independientemente de si eres nuevo o tienes experiencia en el aprendizaje automático, puedes implementar la funcionalidad que necesites en solo unas pocas líneas de código. No es necesario que tengas un profundo conocimiento sobre redes neuronales o en optimización de modelos para comenzar. Por otra parte, si eres un desarrollador de AA con experiencia, el Kit de AA te brinda API convenientes y útiles para que puedas usar tus propios modelos personalizados de TensorFlow Lite en tus aplicaciones móviles.
Funciones clave
Listo para producción en casos de uso comunes
ML Kit incluye un conjunto de API listas para usar, destinadas a casos prácticos
comunes en dispositivos móviles: reconocimiento de texto, detección de rostro, reconocimiento de puntos de referencia, escaneo
de códigos de barras, identificación del idioma del texto y etiquetado de imágenes. Simplemente transfiere los datos a la biblioteca del Kit de AA y obtendrás la información que necesites.
En el dispositivo o en la nube
La selección de las API del Kit de AA se puede ejecutar en el dispositivo o en la nube. Nuestras API en el dispositivo pueden procesar tus datos con rapidez y funcionar incluso cuando no hay conexión de red. En cambio, nuestras APIs basadas en la nube aprovechan el poder de la tecnología de aprendizaje automático de Google Cloud para brindarte un nivel de precisión incluso más alto.
Implementa modelos personalizados
Si las API del Kit de AA no aplican a tus casos prácticos, siempre puedes aportar tus propios modelos de TensorFlow Lite existentes. Solo sube tu modelo a Firebase; nosotros nos encargaremos de alojarlo y entregarlo en tu aplicación. El Kit de AA actúa como una capa de API en tu modelo personalizado para que sea más sencillo ejecutarlo y usarlo.
¿Cómo funciona?
ML Kit facilita la aplicación de las técnicas del AA en tus aplicaciones a través de las tecnologías
de AA de Google, como la
API de Cloud Vision de Google,
TensorFlow Lite y la
API de Neural Networks de Android,
todas en un único SDK. Ya sea que necesites la potencia del procesamiento basado en la nube,
las capacidades en tiempo real de los modelos en el dispositivo optimizados para dispositivos móviles o la
flexibilidad de los modelos personalizados de TensorFlow Lite, ML Kit lo hace posible en solo unas
pocas líneas de código.
¿Qué funciones están disponibles en el dispositivo o en la nube?
Incluye el SDK con rapidez a través de Gradle o de CocoaPods.
Prepara los datos de entrada.
Por ejemplo, si usas una función de visión, toma una imagen de la cámara y genera los metadatos necesarios como la rotación de la imagen, o solicítale al usuario que seleccione una foto de su galería.
Aplica el modelo de AA a tus datos.
Cuando aplicas el modelo de AA a tus datos, se genera información valiosa como el estado emocional de los rostros o de los objetos detectados, y los conceptos que se reconocieron en la imagen, según la función utilizada. Usa esta información valiosa para potenciar las funciones de tu aplicación como la mejora de fotos, la generación automática de metadatos o cualquier otra cosa que te imagines.
[null,null,["Última actualización: 2025-08-04 (UTC)"],[],[],null,["ML Kit for Firebase \nplat_ios plat_android \nUse machine learning in your apps to solve real-world problems.\n\nML Kit is a mobile SDK that brings Google's machine learning expertise to\nAndroid and iOS apps in a powerful yet easy-to-use package. Whether you're new\nor experienced in machine learning, you can implement the functionality\nyou need in just a few lines of code. There's no need to have deep knowledge of\nneural networks or model optimization to get started. On the other hand, if you\nare an experienced ML developer, ML Kit provides convenient APIs that help\nyou use your custom TensorFlow Lite models in your mobile apps.\n| This is a beta release of ML Kit for Firebase. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Production-ready for common use cases | ML Kit comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, detecting faces, identifying landmarks, scanning barcodes, labeling images, and identifying the language of text. Simply pass in data to the ML Kit library and it gives you the information you need. |\n| On-device or in the cloud | ML Kit's selection of APIs run on-device or in the cloud. Our on-device APIs can process your data quickly and work even when there's no network connection. Our cloud-based APIs, on the other hand, leverage the power of Google Cloud's machine learning technology to give you an even higher level of accuracy. |\n| Deploy custom models | If ML Kit's APIs don't cover your use cases, you can always bring your own existing TensorFlow Lite models. Just upload your model to Firebase, and we'll take care of hosting and serving it to your app. ML Kit acts as an API layer to your custom model, making it simpler to run and use. |\n\nHow does it work?\n\nML Kit makes it easy to apply ML techniques in your apps by bringing Google's\nML technologies, such as the\n[Google Cloud Vision API](https://cloud.google.com/vision/),\n[TensorFlow Lite](https://www.tensorflow.org/mobile/tflite/), and the\n[Android Neural Networks API](https://developer.android.com/ndk/guides/neuralnetworks/)\ntogether in a single SDK. Whether you need the power of cloud-based processing,\nthe real-time capabilities of mobile-optimized on-device models, or the\nflexibility of custom TensorFlow Lite models, ML Kit makes it possible with\njust a few lines of code.\n\nWhat features are available on device or in the cloud?\n\n| Feature | On-device | Cloud |\n|---------------------------------------------------------------|-----------|-------|\n| [Text recognition](/docs/ml-kit/recognize-text) | | |\n| [Face detection](/docs/ml-kit/detect-faces) | | |\n| [Barcode scanning](/docs/ml-kit/read-barcodes) | | |\n| [Image labeling](/docs/ml-kit/label-images) | | |\n| [Object detection \\& tracking](/docs/ml-kit/object-detection) | | |\n| [Landmark recognition](/docs/ml-kit/recognize-landmarks) | | |\n| [Language identification](/docs/ml-kit/identify-languages) | | |\n| [Translation](/docs/ml-kit/translation) | | |\n| [Smart Reply](/docs/ml-kit/generate-smart-replies) | | |\n| [AutoML model inference](/docs/ml-kit/automl-image-labeling) | | |\n| [Custom model inference](/docs/ml-kit/use-custom-models) | | |\n\n| Use of ML Kit to access Cloud ML functionality is subject to the [Google Cloud Platform License\n| Agreement](https://cloud.google.com/terms/) and [Service\n| Specific Terms](https://cloud.google.com/terms/service-terms), and billed accordingly. For billing information, see the Firebase [Pricing](/pricing) page.\n\nImplementation path\n\n|---|---------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| | Integrate the SDK | Quickly include the SDK using Gradle or CocoaPods. |\n| | Prepare input data | For example, if you're using a vision feature, capture an image from the camera and generate the necessary metadata such as image rotation, or prompt the user to select a photo from their gallery. |\n| | Apply the ML model to your data | By applying the ML model to your data, you generate insights such as the emotional state of detected faces or the objects and concepts that were recognized in the image, depending on the feature you used. Use these insights to power features in your app like photo embellishment, automatic metadata generation, or whatever else you can imagine. |\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml-kit/recognize-text), [face detection](/docs/ml-kit/detect-faces), [barcode scanning](/docs/ml-kit/read-barcodes), [image labeling](/docs/ml-kit/label-images), [object detection \\& tracking](/docs/ml-kit/object-detection), [landmark recognition](/docs/ml-kit/recognize-landmarks), [Smart Reply](/docs/ml-kit/generate-smart-replies), [translation](/docs/ml-kit/translation), and [language identification](/docs/ml-kit/identify-languages).\n- Train your own image labeling model with [AutoML Vision Edge](/docs/ml-kit/automl-image-labeling).\n- Learn about using mobile-optimized [custom models](/docs/ml-kit/use-custom-models) in your app."]]