TensorFlow.org पर देखें | Google Colab में चलाएं | GitHub पर स्रोत देखें | नोटबुक डाउनलोड करें |
हमेशा की तरह, इस उदाहरण में कोड tf.keras
API का उपयोग करेगा, जिसके बारे में आप TensorFlow Keras गाइड में अधिक जान सकते हैं।
पिछले दोनों उदाहरणों में - टेक्स्ट को वर्गीकृत करना और ईंधन दक्षता की भविष्यवाणी करना - हमने देखा कि सत्यापन डेटा पर हमारे मॉडल की सटीकता कई युगों के प्रशिक्षण के बाद चरम पर होगी, और फिर स्थिर हो जाएगी या घटने लगेगी।
दूसरे शब्दों में, हमारा मॉडल प्रशिक्षण डेटा से आगे निकल जाएगा। ओवरफिटिंग से निपटने का तरीका सीखना महत्वपूर्ण है। यद्यपि प्रशिक्षण सेट पर उच्च सटीकता प्राप्त करना अक्सर संभव होता है, हम वास्तव में ऐसे मॉडल विकसित करना चाहते हैं जो परीक्षण सेट (या डेटा जो उन्होंने पहले नहीं देखा है) के लिए अच्छी तरह से सामान्यीकृत किया हो।
ओवरफिटिंग के विपरीत अंडरफिटिंग है। अंडरफिटिंग तब होती है जब ट्रेन डेटा में सुधार की गुंजाइश होती है। यह कई कारणों से हो सकता है: यदि मॉडल पर्याप्त शक्तिशाली नहीं है, अति-नियमित है, या बस पर्याप्त रूप से प्रशिक्षित नहीं किया गया है। इसका मतलब है कि नेटवर्क ने प्रशिक्षण डेटा में प्रासंगिक पैटर्न नहीं सीखा है।
यदि आप बहुत लंबे समय तक प्रशिक्षण लेते हैं, तो मॉडल ओवरफिट होना शुरू कर देगा और प्रशिक्षण डेटा से पैटर्न सीखना शुरू कर देगा जो परीक्षण डेटा को सामान्यीकृत नहीं करता है। हमें संतुलन बनाने की जरूरत है। यह समझना कि उचित संख्या में युगों के लिए कैसे प्रशिक्षित किया जाए, जैसा कि हम नीचे देखेंगे, एक उपयोगी कौशल है।
ओवरफिटिंग को रोकने के लिए, सबसे अच्छा समाधान अधिक संपूर्ण प्रशिक्षण डेटा का उपयोग करना है। डेटासेट को इनपुट की पूरी श्रृंखला को कवर करना चाहिए जिसे मॉडल से संभालने की उम्मीद है। अतिरिक्त डेटा केवल तभी उपयोगी हो सकता है जब इसमें नए और दिलचस्प मामले शामिल हों।
अधिक संपूर्ण डेटा पर प्रशिक्षित एक मॉडल स्वाभाविक रूप से बेहतर सामान्यीकरण करेगा। जब यह संभव नहीं है, तो अगला सबसे अच्छा समाधान नियमितीकरण जैसी तकनीकों का उपयोग करना है। ये स्थान आपके मॉडल द्वारा संग्रहीत की जा सकने वाली जानकारी की मात्रा और प्रकार पर प्रतिबंध लगाते हैं। यदि कोई नेटवर्क केवल कुछ पैटर्नों को याद रखने का जोखिम उठा सकता है, तो अनुकूलन प्रक्रिया उसे सबसे प्रमुख पैटर्न पर ध्यान केंद्रित करने के लिए मजबूर करेगी, जिसमें अच्छी तरह से सामान्यीकरण की बेहतर संभावना है।
इस नोटबुक में, हम कई सामान्य नियमितीकरण तकनीकों का पता लगाएंगे, और उनका उपयोग वर्गीकरण मॉडल में सुधार के लिए करेंगे।
सेट अप
आरंभ करने से पहले, आवश्यक पैकेज आयात करें:
import tensorflow as tf
from tensorflow.keras import layers
from tensorflow.keras import regularizers
print(tf.__version__)
2.8.0-rc1
!pip install git+https://github.com/tensorflow/docs
import tensorflow_docs as tfdocs
import tensorflow_docs.modeling
import tensorflow_docs.plots
from IPython import display
from matplotlib import pyplot as plt
import numpy as np
import pathlib
import shutil
import tempfile
logdir = pathlib.Path(tempfile.mkdtemp())/"tensorboard_logs"
shutil.rmtree(logdir, ignore_errors=True)
हिग्स डेटासेट
इस ट्यूटोरियल का लक्ष्य कण भौतिकी करना नहीं है, इसलिए डेटासेट के विवरण पर ध्यान न दें। इसमें 11,000,000 उदाहरण हैं, प्रत्येक में 28 विशेषताएं हैं, और एक बाइनरी क्लास लेबल है।
gz = tf.keras.utils.get_file('HIGGS.csv.gz', 'http://mlphysics.ics.uci.edu/data/higgs/HIGGS.csv.gz')
Downloading data from http://mlphysics.ics.uci.edu/data/higgs/HIGGS.csv.gz 2816409600/2816407858 [==============================] - 123s 0us/step 2816417792/2816407858 [==============================] - 123s 0us/step
FEATURES = 28
tf.data.experimental.CsvDataset
वर्ग का उपयोग बिना किसी मध्यवर्ती डीकंप्रेसन चरण के सीधे gzip फ़ाइल से csv रिकॉर्ड पढ़ने के लिए किया जा सकता है।
ds = tf.data.experimental.CsvDataset(gz,[float(),]*(FEATURES+1), compression_type="GZIP")
वह सीएसवी पाठक वर्ग प्रत्येक रिकॉर्ड के लिए स्केलर की एक सूची देता है। निम्न फ़ंक्शन स्केलर्स की उस सूची को एक (फीचर_वेक्टर, लेबल) जोड़ी में दोबारा पैक करता है।
def pack_row(*row):
label = row[0]
features = tf.stack(row[1:],1)
return features, label
डेटा के बड़े बैचों पर काम करते समय TensorFlow सबसे कुशल है।
इसलिए प्रत्येक पंक्ति को अलग-अलग रीपैक करने के बजाय एक नया Dataset
बनाएं जो 10000-उदाहरणों के बैच लेता है, प्रत्येक बैच में pack_row
फ़ंक्शन लागू करता है, और फिर बैचों को अलग-अलग रिकॉर्ड में विभाजित करता है:
packed_ds = ds.batch(10000).map(pack_row).unbatch()
इस नए packed_ds
के कुछ रिकॉर्ड पर एक नज़र डालें।
सुविधाएँ पूरी तरह से सामान्यीकृत नहीं हैं, लेकिन यह इस ट्यूटोरियल के लिए पर्याप्त है।
for features,label in packed_ds.batch(1000).take(1):
print(features[0])
plt.hist(features.numpy().flatten(), bins = 101)
tf.Tensor( [ 0.8692932 -0.6350818 0.22569026 0.32747006 -0.6899932 0.75420225 -0.24857314 -1.0920639 0. 1.3749921 -0.6536742 0.9303491 1.1074361 1.1389043 -1.5781983 -1.0469854 0. 0.65792954 -0.01045457 -0.04576717 3.1019614 1.35376 0.9795631 0.97807616 0.92000484 0.72165745 0.98875093 0.87667835], shape=(28,), dtype=float32)
इस ट्यूटोरियल को अपेक्षाकृत कम रखने के लिए सत्यापन के लिए पहले 1000 नमूनों का उपयोग करें, और प्रशिक्षण के लिए अगले 10,000 का उपयोग करें:
N_VALIDATION = int(1e3)
N_TRAIN = int(1e4)
BUFFER_SIZE = int(1e4)
BATCH_SIZE = 500
STEPS_PER_EPOCH = N_TRAIN//BATCH_SIZE
Dataset.skip
और Dataset.take
तरीके इसे आसान बनाते हैं।
उसी समय, यह सुनिश्चित करने के लिए Dataset.cache
विधि का उपयोग करें कि लोडर को प्रत्येक युग में फ़ाइल से डेटा को फिर से पढ़ने की आवश्यकता नहीं है:
validate_ds = packed_ds.take(N_VALIDATION).cache()
train_ds = packed_ds.skip(N_VALIDATION).take(N_TRAIN).cache()
train_ds
<CacheDataset element_spec=(TensorSpec(shape=(28,), dtype=tf.float32, name=None), TensorSpec(shape=(), dtype=tf.float32, name=None))>
ये डेटासेट अलग-अलग उदाहरण लौटाते हैं। प्रशिक्षण के लिए उपयुक्त आकार के बैच बनाने के लिए .batch
विधि का उपयोग करें। बैचिंग से पहले प्रशिक्षण सेट को .shuffle
और .repeat
भी याद रखें।
validate_ds = validate_ds.batch(BATCH_SIZE)
train_ds = train_ds.shuffle(BUFFER_SIZE).repeat().batch(BATCH_SIZE)
ओवरफिटिंग का प्रदर्शन करें
ओवरफिटिंग को रोकने का सबसे सरल तरीका एक छोटे मॉडल से शुरू करना है: एक मॉडल जिसमें सीखने योग्य मापदंडों की एक छोटी संख्या होती है (जो परतों की संख्या और प्रति परत इकाइयों की संख्या से निर्धारित होती है)। गहन शिक्षण में, एक मॉडल में सीखने योग्य मापदंडों की संख्या को अक्सर मॉडल की "क्षमता" के रूप में संदर्भित किया जाता है।
सहज रूप से, अधिक मापदंडों वाले एक मॉडल में अधिक "याद रखने की क्षमता" होगी और इसलिए प्रशिक्षण नमूनों और उनके लक्ष्यों के बीच एक आदर्श शब्दकोश जैसी मैपिंग को आसानी से सीखने में सक्षम होगा, बिना किसी सामान्यीकरण शक्ति के एक मानचित्रण, लेकिन भविष्यवाणियां करते समय यह बेकार होगा। पहले के अनदेखे डेटा पर।
इसे हमेशा ध्यान में रखें: गहन शिक्षण मॉडल प्रशिक्षण डेटा को फिट करने में अच्छे होते हैं, लेकिन वास्तविक चुनौती सामान्यीकरण है, फिटिंग नहीं।
दूसरी ओर, यदि नेटवर्क के पास सीमित स्मृति संसाधन हैं, तो वह मानचित्रण को उतनी आसानी से नहीं सीख पाएगा। इसके नुकसान को कम करने के लिए, इसे संकुचित अभ्यावेदन सीखना होगा जिसमें अधिक भविष्य कहनेवाला शक्ति हो। उसी समय, यदि आप अपने मॉडल को बहुत छोटा बनाते हैं, तो प्रशिक्षण डेटा को फिट करने में कठिनाई होगी। "बहुत अधिक क्षमता" और "पर्याप्त क्षमता नहीं" के बीच एक संतुलन है।
दुर्भाग्य से, आपके मॉडल के सही आकार या वास्तुकला को निर्धारित करने के लिए कोई जादुई सूत्र नहीं है (परतों की संख्या, या प्रत्येक परत के लिए सही आकार के संदर्भ में)। आपको विभिन्न आर्किटेक्चर की एक श्रृंखला का प्रयोग करके प्रयोग करना होगा।
एक उपयुक्त मॉडल आकार खोजने के लिए, अपेक्षाकृत कुछ परतों और मापदंडों के साथ शुरू करना सबसे अच्छा है, फिर परतों के आकार को बढ़ाना या नई परतों को जोड़ना शुरू करें जब तक कि आप सत्यापन हानि पर कम रिटर्न नहीं देखते।
केवल layers.Dense
का उपयोग करके एक साधारण मॉडल से प्रारंभ करें। आधार रेखा के रूप में घने, फिर बड़े संस्करण बनाएं, और उनकी तुलना करें।
प्रशिक्षण प्रक्रिया
यदि आप प्रशिक्षण के दौरान सीखने की दर को धीरे-धीरे कम करते हैं तो कई मॉडल बेहतर तरीके से प्रशिक्षित होते हैं। समय के साथ सीखने की दर को कम करने के लिए optimizers.schedules
का उपयोग करें:
lr_schedule = tf.keras.optimizers.schedules.InverseTimeDecay(
0.001,
decay_steps=STEPS_PER_EPOCH*1000,
decay_rate=1,
staircase=False)
def get_optimizer():
return tf.keras.optimizers.Adam(lr_schedule)
उपरोक्त कोड एक schedules.InverseTimeDecay
सेट करता है। InverseTimeDecay हाइपरबॉलिक रूप से सीखने की दर को 1000 युगों में आधार दर के 1/2, 2000 युगों में 1/3 और इसी तरह से कम करता है।
step = np.linspace(0,100000)
lr = lr_schedule(step)
plt.figure(figsize = (8,6))
plt.plot(step/STEPS_PER_EPOCH, lr)
plt.ylim([0,max(plt.ylim())])
plt.xlabel('Epoch')
_ = plt.ylabel('Learning Rate')
इस ट्यूटोरियल में प्रत्येक मॉडल समान प्रशिक्षण कॉन्फ़िगरेशन का उपयोग करेगा। तो कॉलबैक की सूची से शुरू करके इन्हें पुन: प्रयोज्य तरीके से सेट करें।
इस ट्यूटोरियल का प्रशिक्षण कई छोटे युगों तक चलता है। लॉगिंग शोर को कम करने के लिए tfdocs.EpochDots
का उपयोग करें जो बस एक प्रिंट करता है .
प्रत्येक युग के लिए, और प्रत्येक 100 युगों में मेट्रिक्स का एक पूरा सेट।
इसके बाद callbacks.EarlyStopping
शामिल हैं। लंबे और अनावश्यक प्रशिक्षण समय से बचने के लिए अर्लीस्टॉपिंग। ध्यान दें कि यह कॉलबैक val_binary_crossentropy
की निगरानी के लिए सेट है, न कि val_loss
पर। यह अंतर बाद में महत्वपूर्ण होगा।
callbacks.TensorBoard
का उपयोग करें। प्रशिक्षण के लिए TensorBoard लॉग उत्पन्न करने के लिए TensorBoard।
def get_callbacks(name):
return [
tfdocs.modeling.EpochDots(),
tf.keras.callbacks.EarlyStopping(monitor='val_binary_crossentropy', patience=200),
tf.keras.callbacks.TensorBoard(logdir/name),
]
इसी तरह प्रत्येक मॉडल समान Model.compile
और Model.fit
सेटिंग्स का उपयोग करेगा:
def compile_and_fit(model, name, optimizer=None, max_epochs=10000):
if optimizer is None:
optimizer = get_optimizer()
model.compile(optimizer=optimizer,
loss=tf.keras.losses.BinaryCrossentropy(from_logits=True),
metrics=[
tf.keras.losses.BinaryCrossentropy(
from_logits=True, name='binary_crossentropy'),
'accuracy'])
model.summary()
history = model.fit(
train_ds,
steps_per_epoch = STEPS_PER_EPOCH,
epochs=max_epochs,
validation_data=validate_ds,
callbacks=get_callbacks(name),
verbose=0)
return history
छोटा मॉडल
एक मॉडल को प्रशिक्षित करके शुरू करें:
tiny_model = tf.keras.Sequential([
layers.Dense(16, activation='elu', input_shape=(FEATURES,)),
layers.Dense(1)
])
size_histories = {}
size_histories['Tiny'] = compile_and_fit(tiny_model, 'sizes/Tiny')
Model: "sequential" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense (Dense) (None, 16) 464 dense_1 (Dense) (None, 1) 17 ================================================================= Total params: 481 Trainable params: 481 Non-trainable params: 0 _________________________________________________________________ Epoch: 0, accuracy:0.4961, binary_crossentropy:0.7294, loss:0.7294, val_accuracy:0.4840, val_binary_crossentropy:0.7200, val_loss:0.7200, .................................................................................................... Epoch: 100, accuracy:0.5931, binary_crossentropy:0.6279, loss:0.6279, val_accuracy:0.5860, val_binary_crossentropy:0.6288, val_loss:0.6288, .................................................................................................... Epoch: 200, accuracy:0.6157, binary_crossentropy:0.6178, loss:0.6178, val_accuracy:0.6200, val_binary_crossentropy:0.6134, val_loss:0.6134, .................................................................................................... Epoch: 300, accuracy:0.6370, binary_crossentropy:0.6086, loss:0.6086, val_accuracy:0.6220, val_binary_crossentropy:0.6055, val_loss:0.6055, .................................................................................................... Epoch: 400, accuracy:0.6522, binary_crossentropy:0.6008, loss:0.6008, val_accuracy:0.6260, val_binary_crossentropy:0.5997, val_loss:0.5997, .................................................................................................... Epoch: 500, accuracy:0.6513, binary_crossentropy:0.5946, loss:0.5946, val_accuracy:0.6480, val_binary_crossentropy:0.5911, val_loss:0.5911, .................................................................................................... Epoch: 600, accuracy:0.6636, binary_crossentropy:0.5894, loss:0.5894, val_accuracy:0.6390, val_binary_crossentropy:0.5898, val_loss:0.5898, .................................................................................................... Epoch: 700, accuracy:0.6696, binary_crossentropy:0.5852, loss:0.5852, val_accuracy:0.6530, val_binary_crossentropy:0.5870, val_loss:0.5870, .................................................................................................... Epoch: 800, accuracy:0.6706, binary_crossentropy:0.5824, loss:0.5824, val_accuracy:0.6590, val_binary_crossentropy:0.5850, val_loss:0.5850, .................................................................................................... Epoch: 900, accuracy:0.6709, binary_crossentropy:0.5796, loss:0.5796, val_accuracy:0.6680, val_binary_crossentropy:0.5831, val_loss:0.5831, .................................................................................................... Epoch: 1000, accuracy:0.6780, binary_crossentropy:0.5769, loss:0.5769, val_accuracy:0.6530, val_binary_crossentropy:0.5851, val_loss:0.5851, .................................................................................................... Epoch: 1100, accuracy:0.6735, binary_crossentropy:0.5752, loss:0.5752, val_accuracy:0.6620, val_binary_crossentropy:0.5807, val_loss:0.5807, .................................................................................................... Epoch: 1200, accuracy:0.6759, binary_crossentropy:0.5729, loss:0.5729, val_accuracy:0.6620, val_binary_crossentropy:0.5792, val_loss:0.5792, .................................................................................................... Epoch: 1300, accuracy:0.6849, binary_crossentropy:0.5716, loss:0.5716, val_accuracy:0.6450, val_binary_crossentropy:0.5859, val_loss:0.5859, .................................................................................................... Epoch: 1400, accuracy:0.6790, binary_crossentropy:0.5695, loss:0.5695, val_accuracy:0.6700, val_binary_crossentropy:0.5776, val_loss:0.5776, .................................................................................................... Epoch: 1500, accuracy:0.6824, binary_crossentropy:0.5681, loss:0.5681, val_accuracy:0.6730, val_binary_crossentropy:0.5761, val_loss:0.5761, .................................................................................................... Epoch: 1600, accuracy:0.6828, binary_crossentropy:0.5669, loss:0.5669, val_accuracy:0.6690, val_binary_crossentropy:0.5766, val_loss:0.5766, .................................................................................................... Epoch: 1700, accuracy:0.6874, binary_crossentropy:0.5657, loss:0.5657, val_accuracy:0.6600, val_binary_crossentropy:0.5774, val_loss:0.5774, .................................................................................................... Epoch: 1800, accuracy:0.6845, binary_crossentropy:0.5655, loss:0.5655, val_accuracy:0.6780, val_binary_crossentropy:0.5752, val_loss:0.5752, .................................................................................................... Epoch: 1900, accuracy:0.6837, binary_crossentropy:0.5644, loss:0.5644, val_accuracy:0.6790, val_binary_crossentropy:0.5753, val_loss:0.5753, .................................................................................................... Epoch: 2000, accuracy:0.6853, binary_crossentropy:0.5632, loss:0.5632, val_accuracy:0.6780, val_binary_crossentropy:0.5753, val_loss:0.5753, .................................................................................................... Epoch: 2100, accuracy:0.6871, binary_crossentropy:0.5625, loss:0.5625, val_accuracy:0.6670, val_binary_crossentropy:0.5769, val_loss:0.5769, ...................................
अब जांचें कि मॉडल ने कैसे किया:
plotter = tfdocs.plots.HistoryPlotter(metric = 'binary_crossentropy', smoothing_std=10)
plotter.plot(size_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)
छोटा मॉडल
यह देखने के लिए कि क्या आप छोटे मॉडल के प्रदर्शन को मात दे सकते हैं, कुछ बड़े मॉडलों को उत्तरोत्तर प्रशिक्षित करें।
प्रत्येक 16 इकाइयों के साथ दो छिपी हुई परतों का प्रयास करें:
small_model = tf.keras.Sequential([
# `input_shape` is only required here so that `.summary` works.
layers.Dense(16, activation='elu', input_shape=(FEATURES,)),
layers.Dense(16, activation='elu'),
layers.Dense(1)
])
size_histories['Small'] = compile_and_fit(small_model, 'sizes/Small')
Model: "sequential_1" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_2 (Dense) (None, 16) 464 dense_3 (Dense) (None, 16) 272 dense_4 (Dense) (None, 1) 17 ================================================================= Total params: 753 Trainable params: 753 Non-trainable params: 0 _________________________________________________________________ Epoch: 0, accuracy:0.4864, binary_crossentropy:0.7769, loss:0.7769, val_accuracy:0.4930, val_binary_crossentropy:0.7211, val_loss:0.7211, .................................................................................................... Epoch: 100, accuracy:0.6386, binary_crossentropy:0.6052, loss:0.6052, val_accuracy:0.6020, val_binary_crossentropy:0.6177, val_loss:0.6177, .................................................................................................... Epoch: 200, accuracy:0.6697, binary_crossentropy:0.5829, loss:0.5829, val_accuracy:0.6310, val_binary_crossentropy:0.6018, val_loss:0.6018, .................................................................................................... Epoch: 300, accuracy:0.6838, binary_crossentropy:0.5721, loss:0.5721, val_accuracy:0.6490, val_binary_crossentropy:0.5940, val_loss:0.5940, .................................................................................................... Epoch: 400, accuracy:0.6911, binary_crossentropy:0.5656, loss:0.5656, val_accuracy:0.6430, val_binary_crossentropy:0.5985, val_loss:0.5985, .................................................................................................... Epoch: 500, accuracy:0.6930, binary_crossentropy:0.5607, loss:0.5607, val_accuracy:0.6430, val_binary_crossentropy:0.6028, val_loss:0.6028, .........................
मध्यम मॉडल
अब 64 इकाइयों के साथ 3 छिपी हुई परतों का प्रयास करें:
medium_model = tf.keras.Sequential([
layers.Dense(64, activation='elu', input_shape=(FEATURES,)),
layers.Dense(64, activation='elu'),
layers.Dense(64, activation='elu'),
layers.Dense(1)
])
और उसी डेटा का उपयोग करके मॉडल को प्रशिक्षित करें:
size_histories['Medium'] = compile_and_fit(medium_model, "sizes/Medium")
Model: "sequential_2" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_5 (Dense) (None, 64) 1856 dense_6 (Dense) (None, 64) 4160 dense_7 (Dense) (None, 64) 4160 dense_8 (Dense) (None, 1) 65 ================================================================= Total params: 10,241 Trainable params: 10,241 Non-trainable params: 0 _________________________________________________________________ Epoch: 0, accuracy:0.5017, binary_crossentropy:0.6840, loss:0.6840, val_accuracy:0.4790, val_binary_crossentropy:0.6723, val_loss:0.6723, .................................................................................................... Epoch: 100, accuracy:0.7173, binary_crossentropy:0.5221, loss:0.5221, val_accuracy:0.6470, val_binary_crossentropy:0.6111, val_loss:0.6111, .................................................................................................... Epoch: 200, accuracy:0.7884, binary_crossentropy:0.4270, loss:0.4270, val_accuracy:0.6390, val_binary_crossentropy:0.7045, val_loss:0.7045, ..............................................................
बड़ा मॉडल
एक अभ्यास के रूप में, आप एक और भी बड़ा मॉडल बना सकते हैं, और देख सकते हैं कि यह कितनी जल्दी ओवरफिट होने लगता है। इसके बाद, आइए इस बेंचमार्क में एक ऐसा नेटवर्क जोड़ें जिसमें बहुत अधिक क्षमता हो, समस्या से कहीं अधिक वारंट होगा:
large_model = tf.keras.Sequential([
layers.Dense(512, activation='elu', input_shape=(FEATURES,)),
layers.Dense(512, activation='elu'),
layers.Dense(512, activation='elu'),
layers.Dense(512, activation='elu'),
layers.Dense(1)
])
और, फिर से, उसी डेटा का उपयोग करके मॉडल को प्रशिक्षित करें:
size_histories['large'] = compile_and_fit(large_model, "sizes/large")
Model: "sequential_3" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_9 (Dense) (None, 512) 14848 dense_10 (Dense) (None, 512) 262656 dense_11 (Dense) (None, 512) 262656 dense_12 (Dense) (None, 512) 262656 dense_13 (Dense) (None, 1) 513 ================================================================= Total params: 803,329 Trainable params: 803,329 Non-trainable params: 0 _________________________________________________________________ Epoch: 0, accuracy:0.5145, binary_crossentropy:0.7740, loss:0.7740, val_accuracy:0.4980, val_binary_crossentropy:0.6793, val_loss:0.6793, .................................................................................................... Epoch: 100, accuracy:1.0000, binary_crossentropy:0.0020, loss:0.0020, val_accuracy:0.6600, val_binary_crossentropy:1.8540, val_loss:1.8540, .................................................................................................... Epoch: 200, accuracy:1.0000, binary_crossentropy:0.0001, loss:0.0001, val_accuracy:0.6560, val_binary_crossentropy:2.5293, val_loss:2.5293, ..........................
प्रशिक्षण और सत्यापन हानियों को प्लॉट करें
ठोस रेखाएं प्रशिक्षण हानि दिखाती हैं, और धराशायी रेखाएं सत्यापन हानि दिखाती हैं (याद रखें: कम सत्यापन हानि एक बेहतर मॉडल को इंगित करती है)।
एक बड़े मॉडल का निर्माण करते समय यह अधिक शक्ति देता है, अगर इस शक्ति को किसी भी तरह से बाधित नहीं किया जाता है तो यह आसानी से प्रशिक्षण सेट से अधिक हो सकता है।
इस उदाहरण में, आमतौर पर, केवल "Tiny"
मॉडल पूरी तरह से ओवरफिटिंग से बचने का प्रबंधन करता है, और प्रत्येक बड़ा मॉडल डेटा को अधिक तेज़ी से ओवरफिट करता है। यह "large"
मॉडल के लिए इतना गंभीर हो जाता है कि वास्तव में क्या हो रहा है यह देखने के लिए आपको प्लॉट को लॉग-स्केल पर स्विच करने की आवश्यकता है।
यह तब स्पष्ट होता है जब आप सत्यापन मेट्रिक्स को प्रशिक्षण मेट्रिक्स से प्लॉट और तुलना करते हैं।
- एक छोटा सा अंतर होना सामान्य है।
- यदि दोनों मेट्रिक्स एक ही दिशा में आगे बढ़ रहे हैं, तो सब कुछ ठीक है।
- यदि प्रशिक्षण मीट्रिक में सुधार जारी रहने के दौरान सत्यापन मीट्रिक स्थिर होना शुरू हो जाता है, तो आप शायद ओवरफिटिंग के करीब हैं।
- यदि सत्यापन मीट्रिक गलत दिशा में जा रहा है, तो मॉडल स्पष्ट रूप से ओवरफिटिंग है।
plotter.plot(size_histories)
a = plt.xscale('log')
plt.xlim([5, max(plt.xlim())])
plt.ylim([0.5, 0.7])
plt.xlabel("Epochs [Log Scale]")
Text(0.5, 0, 'Epochs [Log Scale]')
टेंसरबोर्ड में देखें
इन सभी मॉडलों ने प्रशिक्षण के दौरान TensorBoard लॉग लिखे।
एक नोटबुक के अंदर एक एम्बेडेड TensorBoard व्यूअर खोलें:
#docs_infra: no_execute
# Load the TensorBoard notebook extension
%load_ext tensorboard
# Open an embedded TensorBoard viewer
%tensorboard --logdir {logdir}/sizes
आप इस नोटबुक के पिछले रन के परिणाम TensorBoard.dev पर देख सकते हैं।
TensorBoard.dev सभी के साथ ML प्रयोगों को होस्ट करने, ट्रैक करने और साझा करने का एक प्रबंधित अनुभव है।
यह सुविधा के लिए <iframe>
में भी शामिल है:
display.IFrame(
src="https://tensorboard.dev/experiment/vW7jmmF9TmKmy3rbheMQpw/#scalars&_smoothingWeight=0.97",
width="100%", height="800px")
यदि आप TensorBoard परिणाम साझा करना चाहते हैं, तो आप निम्न को एक कोड-सेल में कॉपी करके TensorBoard.dev पर लॉग अपलोड कर सकते हैं।
tensorboard dev upload --logdir {logdir}/sizes
ओवरफिटिंग को रोकने के लिए रणनीतियाँ
इस खंड की सामग्री में आने से पहले, तुलना के लिए आधार रेखा के रूप में उपयोग करने के लिए उपरोक्त "Tiny"
मॉडल से प्रशिक्षण लॉग की प्रतिलिपि बनाएँ।
shutil.rmtree(logdir/'regularizers/Tiny', ignore_errors=True)
shutil.copytree(logdir/'sizes/Tiny', logdir/'regularizers/Tiny')
PosixPath('/tmp/tmpn1rdh98q/tensorboard_logs/regularizers/Tiny')
regularizer_histories = {}
regularizer_histories['Tiny'] = size_histories['Tiny']
वजन नियमितीकरण जोड़ें
आप ओकम के रेजर सिद्धांत से परिचित हो सकते हैं: किसी चीज़ के लिए दो स्पष्टीकरण दिए गए हैं, स्पष्टीकरण के सही होने की सबसे अधिक संभावना "सरल" है, जो कम से कम धारणाएं बनाती है। यह तंत्रिका नेटवर्क द्वारा सीखे गए मॉडल पर भी लागू होता है: कुछ प्रशिक्षण डेटा और एक नेटवर्क आर्किटेक्चर को देखते हुए, वज़न मान (एकाधिक मॉडल) के कई सेट होते हैं जो डेटा की व्याख्या कर सकते हैं, और सरल मॉडल जटिल लोगों की तुलना में अधिक होने की संभावना कम होती है।
इस संदर्भ में एक "सरल मॉडल" एक ऐसा मॉडल है जहां पैरामीटर मानों के वितरण में कम एन्ट्रॉपी होती है (या कम पैरामीटर वाला एक मॉडल, जैसा कि हमने ऊपर अनुभाग में देखा था)। इस प्रकार ओवरफिटिंग को कम करने का एक सामान्य तरीका है कि नेटवर्क के वजन को केवल छोटे मान लेने के लिए मजबूर करके नेटवर्क की जटिलता पर प्रतिबंध लगाया जाए, जिससे वजन मूल्यों का वितरण अधिक "नियमित" हो जाता है। इसे "वेट रेगुलराइजेशन" कहा जाता है, और यह नेटवर्क के लॉस फंक्शन में बड़े वजन से जुड़ी लागत को जोड़कर किया जाता है। यह लागत दो स्वादों में आती है:
L1 नियमितीकरण , जहां जोड़ा गया मूल्य भार गुणांक के निरपेक्ष मूल्य के समानुपाती होता है (अर्थात जिसे भार का "L1 मानदंड" कहा जाता है)।
L2 नियमितीकरण , जहां जोड़ा गया मूल्य भार गुणांक के मूल्य के वर्ग के समानुपाती होता है (अर्थात जिसे भार का वर्ग "L2 मानदंड" कहा जाता है)। L2 नियमितीकरण को तंत्रिका नेटवर्क के संदर्भ में वजन में कमी भी कहा जाता है। अलग-अलग नाम को भ्रमित न होने दें: वजन में गिरावट गणितीय रूप से L2 नियमितीकरण के समान ही है।
L1 नियमितीकरण एक विरल मॉडल को प्रोत्साहित करने के लिए वजन को बिल्कुल शून्य की ओर धकेलता है। L2 नियमितीकरण वजन मापदंडों को विरल बनाए बिना दंडित करेगा क्योंकि छोटे वजन के लिए जुर्माना शून्य हो जाता है-एक कारण है कि L2 अधिक सामान्य है।
tf.keras
में, वज़न नियमितीकरण को कीवर्ड तर्कों के रूप में परतों में वज़न नियमित करने वाले उदाहरणों को पास करके जोड़ा जाता है। आइए अब L2 वजन नियमितीकरण जोड़ें।
l2_model = tf.keras.Sequential([
layers.Dense(512, activation='elu',
kernel_regularizer=regularizers.l2(0.001),
input_shape=(FEATURES,)),
layers.Dense(512, activation='elu',
kernel_regularizer=regularizers.l2(0.001)),
layers.Dense(512, activation='elu',
kernel_regularizer=regularizers.l2(0.001)),
layers.Dense(512, activation='elu',
kernel_regularizer=regularizers.l2(0.001)),
layers.Dense(1)
])
regularizer_histories['l2'] = compile_and_fit(l2_model, "regularizers/l2")
Model: "sequential_4" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_14 (Dense) (None, 512) 14848 dense_15 (Dense) (None, 512) 262656 dense_16 (Dense) (None, 512) 262656 dense_17 (Dense) (None, 512) 262656 dense_18 (Dense) (None, 1) 513 ================================================================= Total params: 803,329 Trainable params: 803,329 Non-trainable params: 0 _________________________________________________________________ Epoch: 0, accuracy:0.5126, binary_crossentropy:0.7481, loss:2.2415, val_accuracy:0.4950, val_binary_crossentropy:0.6707, val_loss:2.0653, .................................................................................................... Epoch: 100, accuracy:0.6625, binary_crossentropy:0.5945, loss:0.6173, val_accuracy:0.6400, val_binary_crossentropy:0.5871, val_loss:0.6100, .................................................................................................... Epoch: 200, accuracy:0.6690, binary_crossentropy:0.5864, loss:0.6079, val_accuracy:0.6650, val_binary_crossentropy:0.5856, val_loss:0.6076, .................................................................................................... Epoch: 300, accuracy:0.6790, binary_crossentropy:0.5762, loss:0.5976, val_accuracy:0.6550, val_binary_crossentropy:0.5881, val_loss:0.6095, .................................................................................................... Epoch: 400, accuracy:0.6843, binary_crossentropy:0.5697, loss:0.5920, val_accuracy:0.6650, val_binary_crossentropy:0.5878, val_loss:0.6101, .................................................................................................... Epoch: 500, accuracy:0.6897, binary_crossentropy:0.5651, loss:0.5907, val_accuracy:0.6890, val_binary_crossentropy:0.5798, val_loss:0.6055, .................................................................................................... Epoch: 600, accuracy:0.6945, binary_crossentropy:0.5610, loss:0.5864, val_accuracy:0.6820, val_binary_crossentropy:0.5772, val_loss:0.6026, ..........................................................
l2(0.001)
का अर्थ है कि परत के भार मैट्रिक्स में प्रत्येक गुणांक नेटवर्क के कुल नुकसान में 0.001 * weight_coefficient_value**2
जोड़ देगा।
इसलिए हम सीधे binary_crossentropy
की निगरानी कर रहे हैं। क्योंकि इसमें यह नियमितीकरण घटक मिश्रित नहीं है।
तो, L2
नियमितीकरण दंड के साथ वही "Large"
मॉडल बहुत बेहतर प्रदर्शन करता है:
plotter.plot(regularizer_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)
जैसा कि आप देख सकते हैं, "L2"
नियमित मॉडल अब "Tiny"
मॉडल के साथ बहुत अधिक प्रतिस्पर्धी है। यह "L2"
मॉडल "Large"
मॉडल की तुलना में ओवरफिटिंग के लिए बहुत अधिक प्रतिरोधी है, जिस पर समान संख्या में पैरामीटर होने के बावजूद यह आधारित था।
और जानकारी
इस तरह के नियमितीकरण के बारे में दो महत्वपूर्ण बातें ध्यान देने योग्य हैं।
पहला: यदि आप अपना खुद का प्रशिक्षण लूप लिख रहे हैं, तो आपको मॉडल से इसके नियमितीकरण के नुकसान के बारे में पूछना सुनिश्चित करना होगा।
result = l2_model(features)
regularization_loss=tf.add_n(l2_model.losses)
दूसरा: यह कार्यान्वयन मॉडल के नुकसान में वज़न दंड जोड़कर काम करता है, और उसके बाद मानक अनुकूलन प्रक्रिया लागू करता है।
एक दूसरा दृष्टिकोण है कि इसके बजाय केवल कच्चे नुकसान पर ऑप्टिमाइज़र चलाता है, और फिर गणना किए गए चरण को लागू करते समय ऑप्टिमाइज़र कुछ वजन क्षय भी लागू करता है। यह "डिकूपल्ड वेट डेके" ऑप्टिमाइज़र जैसे optimizers.FTRL
.FTRL और optimizers.AdamW
में देखा जाता है।
ड्रॉपआउट जोड़ें
ड्रॉपआउट तंत्रिका नेटवर्क के लिए सबसे प्रभावी और सबसे अधिक इस्तेमाल की जाने वाली नियमितीकरण तकनीकों में से एक है, जिसे टोरंटो विश्वविद्यालय में हिंटन और उनके छात्रों द्वारा विकसित किया गया है।
ड्रॉपआउट के लिए सहज व्याख्या यह है कि क्योंकि नेटवर्क में अलग-अलग नोड्स दूसरों के आउटपुट पर भरोसा नहीं कर सकते हैं, इसलिए प्रत्येक नोड को उन विशेषताओं को आउटपुट करना चाहिए जो अपने आप में उपयोगी हैं।
ड्रॉपआउट, एक परत पर लागू होता है, जिसमें प्रशिक्षण के दौरान बेतरतीब ढंग से "ड्रॉप आउट" (यानी शून्य पर सेट) परत की कई आउटपुट विशेषताएं होती हैं। मान लें कि किसी दिए गए परत ने प्रशिक्षण के दौरान दिए गए इनपुट नमूने के लिए सामान्य रूप से एक वेक्टर [0.2, 0.5, 1.3, 0.8, 1.1] लौटाया होगा; ड्रॉपआउट लागू करने के बाद, इस वेक्टर में यादृच्छिक रूप से वितरित कुछ शून्य प्रविष्टियां होंगी, उदाहरण के लिए [0, 0.5, 1.3, 0, 1.1]।
"छोड़ने की दर" उन सुविधाओं का अंश है जिन्हें शून्य किया जा रहा है; यह आमतौर पर 0.2 और 0.5 के बीच सेट होता है। परीक्षण के समय, किसी भी इकाई को बाहर नहीं किया जाता है, और इसके बजाय परत के आउटपुट मूल्यों को ड्रॉपआउट दर के बराबर एक कारक द्वारा घटाया जाता है, ताकि इस तथ्य के लिए संतुलन बनाया जा सके कि प्रशिक्षण समय की तुलना में अधिक इकाइयाँ सक्रिय हैं।
tf.keras
में आप ड्रॉपआउट परत के माध्यम से एक नेटवर्क में ड्रॉपआउट का परिचय दे सकते हैं, जो परत के आउटपुट पर ठीक पहले लागू हो जाता है।
आइए अपने नेटवर्क में दो ड्रॉपआउट परतें जोड़ें, यह देखने के लिए कि वे ओवरफिटिंग को कम करने में कितना अच्छा करते हैं:
dropout_model = tf.keras.Sequential([
layers.Dense(512, activation='elu', input_shape=(FEATURES,)),
layers.Dropout(0.5),
layers.Dense(512, activation='elu'),
layers.Dropout(0.5),
layers.Dense(512, activation='elu'),
layers.Dropout(0.5),
layers.Dense(512, activation='elu'),
layers.Dropout(0.5),
layers.Dense(1)
])
regularizer_histories['dropout'] = compile_and_fit(dropout_model, "regularizers/dropout")
Model: "sequential_5" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_19 (Dense) (None, 512) 14848 dropout (Dropout) (None, 512) 0 dense_20 (Dense) (None, 512) 262656 dropout_1 (Dropout) (None, 512) 0 dense_21 (Dense) (None, 512) 262656 dropout_2 (Dropout) (None, 512) 0 dense_22 (Dense) (None, 512) 262656 dropout_3 (Dropout) (None, 512) 0 dense_23 (Dense) (None, 1) 513 ================================================================= Total params: 803,329 Trainable params: 803,329 Non-trainable params: 0 _________________________________________________________________ Epoch: 0, accuracy:0.4961, binary_crossentropy:0.8110, loss:0.8110, val_accuracy:0.5330, val_binary_crossentropy:0.6900, val_loss:0.6900, .................................................................................................... Epoch: 100, accuracy:0.6557, binary_crossentropy:0.5961, loss:0.5961, val_accuracy:0.6710, val_binary_crossentropy:0.5788, val_loss:0.5788, .................................................................................................... Epoch: 200, accuracy:0.6871, binary_crossentropy:0.5622, loss:0.5622, val_accuracy:0.6860, val_binary_crossentropy:0.5856, val_loss:0.5856, .................................................................................................... Epoch: 300, accuracy:0.7246, binary_crossentropy:0.5121, loss:0.5121, val_accuracy:0.6820, val_binary_crossentropy:0.5927, val_loss:0.5927, ............
plotter.plot(regularizer_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)
यह इस साजिश से स्पष्ट है कि इन दोनों नियमितीकरण दृष्टिकोण "Large"
मॉडल के व्यवहार में सुधार करते हैं। लेकिन यह अभी भी "Tiny"
बेसलाइन को भी नहीं हराता है।
अगला उन दोनों को एक साथ आज़माएँ, और देखें कि क्या इससे बेहतर होता है।
संयुक्त L2 + ड्रॉपआउट
combined_model = tf.keras.Sequential([
layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
activation='elu', input_shape=(FEATURES,)),
layers.Dropout(0.5),
layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
activation='elu'),
layers.Dropout(0.5),
layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
activation='elu'),
layers.Dropout(0.5),
layers.Dense(512, kernel_regularizer=regularizers.l2(0.0001),
activation='elu'),
layers.Dropout(0.5),
layers.Dense(1)
])
regularizer_histories['combined'] = compile_and_fit(combined_model, "regularizers/combined")
Model: "sequential_6" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_24 (Dense) (None, 512) 14848 dropout_4 (Dropout) (None, 512) 0 dense_25 (Dense) (None, 512) 262656 dropout_5 (Dropout) (None, 512) 0 dense_26 (Dense) (None, 512) 262656 dropout_6 (Dropout) (None, 512) 0 dense_27 (Dense) (None, 512) 262656 dropout_7 (Dropout) (None, 512) 0 dense_28 (Dense) (None, 1) 513 ================================================================= Total params: 803,329 Trainable params: 803,329 Non-trainable params: 0 _________________________________________________________________ Epoch: 0, accuracy:0.5090, binary_crossentropy:0.8064, loss:0.9648, val_accuracy:0.4660, val_binary_crossentropy:0.6877, val_loss:0.8454, .................................................................................................... Epoch: 100, accuracy:0.6445, binary_crossentropy:0.6050, loss:0.6350, val_accuracy:0.6630, val_binary_crossentropy:0.5871, val_loss:0.6169, .................................................................................................... Epoch: 200, accuracy:0.6660, binary_crossentropy:0.5932, loss:0.6186, val_accuracy:0.6880, val_binary_crossentropy:0.5722, val_loss:0.5975, .................................................................................................... Epoch: 300, accuracy:0.6697, binary_crossentropy:0.5818, loss:0.6100, val_accuracy:0.6900, val_binary_crossentropy:0.5614, val_loss:0.5895, .................................................................................................... Epoch: 400, accuracy:0.6749, binary_crossentropy:0.5742, loss:0.6046, val_accuracy:0.6870, val_binary_crossentropy:0.5576, val_loss:0.5881, .................................................................................................... Epoch: 500, accuracy:0.6854, binary_crossentropy:0.5703, loss:0.6029, val_accuracy:0.6970, val_binary_crossentropy:0.5458, val_loss:0.5784, .................................................................................................... Epoch: 600, accuracy:0.6806, binary_crossentropy:0.5673, loss:0.6015, val_accuracy:0.6980, val_binary_crossentropy:0.5453, val_loss:0.5795, .................................................................................................... Epoch: 700, accuracy:0.6937, binary_crossentropy:0.5583, loss:0.5938, val_accuracy:0.6870, val_binary_crossentropy:0.5477, val_loss:0.5832, .................................................................................................... Epoch: 800, accuracy:0.6911, binary_crossentropy:0.5576, loss:0.5947, val_accuracy:0.7000, val_binary_crossentropy:0.5446, val_loss:0.5817, .......................
plotter.plot(regularizer_histories)
plt.ylim([0.5, 0.7])
(0.5, 0.7)
"Combined"
नियमितीकरण वाला यह मॉडल स्पष्ट रूप से अब तक का सबसे अच्छा मॉडल है।
टेंसरबोर्ड में देखें
इन मॉडलों ने TensorBoard लॉग भी रिकॉर्ड किए।
एक नोटबुक के अंदर एक एम्बेडेड टेंसरबोर्ड व्यूअर खोलने के लिए, निम्नलिखित को एक कोड-सेल में कॉपी करें:
%tensorboard --logdir {logdir}/regularizers
आप इस नोटबुक के पिछले रन के परिणाम TensorDoard.dev पर देख सकते हैं।
यह सुविधा के लिए <iframe>
में भी शामिल है:
display.IFrame(
src="https://tensorboard.dev/experiment/fGInKDo8TXes1z7HQku9mw/#scalars&_smoothingWeight=0.97",
width = "100%",
height="800px")
इसके साथ अपलोड किया गया था:
tensorboard dev upload --logdir {logdir}/regularizers
निष्कर्ष
संक्षेप में: तंत्रिका नेटवर्क में ओवरफिटिंग को रोकने के सबसे सामान्य तरीके यहां दिए गए हैं:
- अधिक प्रशिक्षण डेटा प्राप्त करें।
- नेटवर्क की क्षमता को कम करें।
- वजन नियमितीकरण जोड़ें।
- ड्रॉपआउट जोड़ें।
इस गाइड में शामिल नहीं किए गए दो महत्वपूर्ण दृष्टिकोण हैं:
- डेटा-वृद्धि
- बैच सामान्यीकरण
याद रखें कि प्रत्येक विधि अपने आप में मदद कर सकती है, लेकिन अक्सर उनका संयोजन और भी अधिक प्रभावी हो सकता है।
# MIT License
#
# Copyright (c) 2017 François Chollet
#
# Permission is hereby granted, free of charge, to any person obtaining a
# copy of this software and associated documentation files (the "Software"),
# to deal in the Software without restriction, including without limitation
# the rights to use, copy, modify, merge, publish, distribute, sublicense,
# and/or sell copies of the Software, and to permit persons to whom the
# Software is furnished to do so, subject to the following conditions:
#
# The above copyright notice and this permission notice shall be included in
# all copies or substantial portions of the Software.
#
# THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
# IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
# FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL
# THE AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
# LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING
# FROM, OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER
# DEALINGS IN THE SOFTWARE.