परिष्कृत गहन शिक्षण मॉडल में लाखों पैरामीटर (वजन) होते हैं, और उन्हें खरोंच से प्रशिक्षित करने के लिए अक्सर बड़ी मात्रा में डेटा और कंप्यूटिंग संसाधनों की आवश्यकता होती है। ट्रांसफर लर्निंग एक ऐसी तकनीक है जो एक मॉडल का एक टुकड़ा लेकर इसे शॉर्टकट करती है जिसे पहले से ही संबंधित कार्य पर प्रशिक्षित किया जा चुका है और एक नए मॉडल में इसका पुन: उपयोग किया जा रहा है।
उदाहरण के लिए, इस खंड में अगला ट्यूटोरियल आपको दिखाएगा कि आप अपनी खुद की छवि पहचानकर्ता कैसे बना सकते हैं जो उस मॉडल का लाभ उठाता है जो पहले से ही छवियों के भीतर विभिन्न प्रकार की वस्तुओं को पहचानने के लिए प्रशिक्षित किया गया था। आप आवश्यक मूल मॉडल की तुलना में बहुत कम प्रशिक्षण डेटा का उपयोग करके अपनी स्वयं की छवि कक्षाओं का पता लगाने के लिए पूर्व-प्रशिक्षित मॉडल में मौजूदा ज्ञान को अनुकूलित कर सकते हैं।
यह तेजी से नए मॉडल विकसित करने के साथ-साथ ब्राउज़र और मोबाइल उपकरणों जैसे संसाधन-विवश वातावरण में मॉडल को अनुकूलित करने के लिए उपयोगी है।
ट्रांसफर लर्निंग करते समय अक्सर हम मूल मॉडल के वजन को समायोजित नहीं करते हैं। इसके बजाय हम अंतिम परत को हटाते हैं और छोटे मॉडल के आउटपुट के शीर्ष पर एक नया (अक्सर काफी उथला) मॉडल प्रशिक्षित करते हैं। यह वह तकनीक है जिसे आप इस खंड के ट्यूटोरियल्स में प्रदर्शित देखेंगे:
TensorFlow.js का उपयोग करके शिक्षण हस्तांतरण के एक अतिरिक्त उदाहरण के लिए, पूर्व-प्रशिक्षित मॉडल का उपयोग करें देखें।