1. Choisissez le meilleur modèle pour la tâche
En fonction de la tâche, vous devrez faire un compromis entre la complexité et la taille du modèle. Si votre tâche nécessite une grande précision, vous aurez peut-être besoin d'un modèle volumineux et complexe. Pour les tâches qui nécessitent moins de précision, il est préférable d’utiliser un modèle plus petit car non seulement ils utilisent moins d’espace disque et de mémoire, mais ils sont aussi généralement plus rapides et plus économes en énergie.
2. Modèles pré-optimisés
Vérifiez si des modèles pré-optimisés TensorFlow Lite existants offrent l'efficacité requise par votre application.
3. Outils post-formation
Si vous ne pouvez pas utiliser un modèle pré-entraîné pour votre application, essayez d'utiliser les outils de quantification post-entraînement TensorFlow Lite lors de la conversion TensorFlow Lite , qui peuvent optimiser votre modèle TensorFlow déjà entraîné.
Consultez le didacticiel de quantification post-formation pour en savoir plus.
Étapes suivantes : outils de formation
Si les solutions simples ci-dessus ne répondent pas à vos besoins, vous devrez peut-être faire appel à des techniques d'optimisation du temps de formation. Optimisez davantage avec nos outils de temps de formation et creusez plus profondément.