Modèles personnalisés

Si vous êtes un développeur ML expérimenté et que les modèles prédéfinis de ML Kit ne répondent pas à vos besoins, vous pouvez utiliser un modèle TensorFlow Lite personnalisé avec ML Kit.

Hébergez vos modèles TensorFlow Lite à l'aide de Firebase ou empaquetez-les avec votre application. Ensuite, utilisez le SDK ML Kit pour effectuer une inférence à l'aide de la meilleure version disponible de votre modèle personnalisé. Si vous hébergez votre modèle avec Firebase, ML Kit met automatiquement à jour vos utilisateurs avec la dernière version.

Sur iOS Sur Android

Capacités clés

Hébergement de modèles TensorFlow Lite Hébergez vos modèles à l'aide de Firebase pour réduire la taille binaire de votre application et assurez-vous que votre application utilise toujours la version la plus récente votre modèle
Inférence ML sur l'appareil Effectuer des inférences dans une application iOS ou Android à l'aide du SDK ML Kit exécuter votre modèle TensorFlow Lite personnalisé. Le modèle peut être associé de votre application, hébergée dans le cloud, ou les deux.
Création de remplacement automatique du modèle spécifier plusieurs sources de modèle ; d'utiliser un modèle stocké localement lorsque Le modèle hébergé dans le cloud n'est pas disponible
Mises à jour automatiques du modèle Configurez les conditions de téléchargement automatique de votre application Nouvelles versions de votre modèle: lorsque l'appareil de l'utilisateur est inactif, en charge ou dispose d'une connexion Wi-Fi

Chemin d'accès de l'exécution

Entraîner le modèle TensorFlow Créer et entraîner un modèle personnalisé à l'aide de TensorFlow Vous pouvez aussi réentraîner un un modèle existant qui résout un problème similaire à ce que vous souhaitez obtenir. Découvrir TensorFlow Lite Guide du développeur.
Convertir le modèle au format TensorFlow Lite Convertissez votre modèle du format TensorFlow standard au format TensorFlow Lite en congelant le graphique, puis en utilisant le convertisseur d'optimisation TensorFlow (TOCO). Découvrir TensorFlow Lite Guide du développeur.
Héberger votre modèle TensorFlow Lite avec Firebase Facultatif: Lorsque vous hébergez votre modèle TensorFlow Lite avec Firebase et incluent le SDK ML Kit dans votre application, il permet à vos utilisateurs par la dernière version de votre modèle. Vous pouvez configurer ML Kit pour télécharger automatiquement les mises à jour du modèle lorsque l'appareil de l'utilisateur est inactif ou ou qu'il est connecté au Wi-Fi.
Utiliser le modèle TensorFlow Lite pour l'inférence Utilisez les API de modèles personnalisés de ML Kit dans votre application iOS ou Android pour effectuer avec votre modèle hébergé sur Firebase ou intégré à l'application.