Wyrafinowane modele głębokiego uczenia mają miliony parametrów (wag), a szkolenie ich od podstaw często wymaga dużych ilości danych i zasobów obliczeniowych. Uczenie się transferu to technika, która znacznie skraca ten proces, biorąc fragment modelu, który został już przeszkolony w zakresie powiązanego zadania, i ponownie wykorzystuje go w nowym modelu.
Na przykład następny samouczek w tej sekcji pokaże, jak zbudować własny aparat do rozpoznawania obrazów, który korzysta z modelu, który został już przeszkolony do rozpoznawania 1000 różnych rodzajów obiektów w obrazach. Możesz dostosować istniejącą wiedzę we wstępnie wytrenowanym modelu, aby wykrywać własne klasy obrazów przy użyciu znacznie mniejszej ilości danych treningowych niż wymaga tego oryginalny model.
Jest to przydatne do szybkiego opracowywania nowych modeli, a także dostosowywania modeli w środowiskach o ograniczonych zasobach, takich jak przeglądarki i urządzenia mobilne.
Najczęściej podczas nauki transferu nie dostosowujemy wag oryginalnego modelu. Zamiast tego usuwamy ostatnią warstwę i trenujemy nowy (często dość płytki) model na podstawie wyników okrojonego modelu. Jest to technika, którą zobaczysz w samouczkach w tej sekcji:
- Zbuduj klasyfikator obrazu oparty na uczeniu się transferu
- Zbuduj rozpoznawanie dźwięku oparte na uczeniu się transferu
Aby zapoznać się z dodatkowym przykładem transferu uczenia się przy użyciu TensorFlow.js, zobacz Używanie wstępnie wytrenowanego modelu .