1. Wybierz najlepszy model do zadania
W zależności od zadania konieczne będzie dokonanie kompromisu pomiędzy złożonością modelu a jego rozmiarem. Jeśli Twoje zadanie wymaga dużej dokładności, możesz potrzebować dużego i złożonego modelu. W przypadku zadań wymagających mniejszej precyzji lepiej jest zastosować mniejszy model, ponieważ nie tylko zużywają mniej miejsca na dysku i pamięci, ale są też generalnie szybsze i bardziej energooszczędne.
2. Wstępnie zoptymalizowane modele
Sprawdź, czy istniejące , wstępnie zoptymalizowane modele TensorFlow Lite zapewniają wydajność wymaganą przez Twoją aplikację.
3. Narzędzia poszkoleniowe
Jeśli nie możesz użyć wstępnie wytrenowanego modelu w swojej aplikacji, spróbuj użyć narzędzi kwantyzacji po treningu TensorFlow Lite podczas konwersji TensorFlow Lite , co może zoptymalizować już wytrenowany model TensorFlow.
Aby dowiedzieć się więcej, zobacz samouczek dotyczący kwantyzacji po szkoleniu .
Kolejne kroki: Oprzyrządowanie w czasie szkolenia
Jeśli powyższe proste rozwiązania nie spełniają Twoich potrzeb, być może będziesz musiał zastosować techniki optymalizacji czasu szkolenia. Optymalizuj dalej dzięki naszym narzędziom szkoleniowym i kop głębiej.