1. Escolha o melhor modelo para a tarefa
Dependendo da tarefa, você precisará fazer uma compensação entre a complexidade do modelo e o tamanho. Se sua tarefa exigir alta precisão, talvez você precise de um modelo grande e complexo. Para tarefas que exigem menos precisão, é melhor usar um modelo menor porque eles não apenas usam menos espaço em disco e memória, mas também são geralmente mais rápidos e mais eficientes em termos de energia.
2. Modelos pré-otimizados
Veja se algum modelo pré-otimizado do TensorFlow Lite existente oferece a eficiência exigida pelo seu aplicativo.
3. Ferramentas pós-treinamento
Se você não puder usar um modelo pré-treinado para seu aplicativo, tente usar as ferramentas de quantização pós-treinamento do TensorFlow Lite durante a conversão do TensorFlow Lite , o que pode otimizar seu modelo do TensorFlow já treinado.
Veja o tutorial de quantização pós-treinamento para saber mais.
Próximas etapas: ferramentas de tempo de treinamento
Se as soluções simples acima não atenderem às suas necessidades, talvez seja necessário envolver técnicas de otimização do tempo de treinamento. Otimize ainda mais com nossas ferramentas de tempo de treinamento e aprofunde-se.