TensorFlow.org पर देखें | Google Colab में चलाएं | GitHub पर स्रोत देखें | नोटबुक डाउनलोड करें |
सेट अप
import tensorflow as tf
from tensorflow import keras
from tensorflow.keras import layers
अनुक्रमिक मॉडल का उपयोग कब करें
एक Sequential
मॉडल परतों के एक सादे ढेर जहां प्रत्येक परत ठीक एक इनपुट टेंसर, और एक उत्पादन टेन्सर है के लिए उपयुक्त है।
रेखाचित्र के रूप में, निम्नलिखित Sequential
मॉडल:
# Define Sequential model with 3 layers
model = keras.Sequential(
[
layers.Dense(2, activation="relu", name="layer1"),
layers.Dense(3, activation="relu", name="layer2"),
layers.Dense(4, name="layer3"),
]
)
# Call model on a test input
x = tf.ones((3, 3))
y = model(x)
इस समारोह के बराबर है:
# Create 3 layers
layer1 = layers.Dense(2, activation="relu", name="layer1")
layer2 = layers.Dense(3, activation="relu", name="layer2")
layer3 = layers.Dense(4, name="layer3")
# Call layers on a test input
x = tf.ones((3, 3))
y = layer3(layer2(layer1(x)))
एक अनुक्रमिक मॉडल जब उपयुक्त नहीं है:
- आपके मॉडल में एकाधिक इनपुट या एकाधिक आउटपुट हैं
- आपकी किसी भी परत में एकाधिक इनपुट या एकाधिक आउटपुट हैं
- आपको लेयर शेयरिंग करने की आवश्यकता है
- आप गैर-रैखिक टोपोलॉजी चाहते हैं (उदाहरण के लिए एक अवशिष्ट कनेक्शन, एक बहु-शाखा मॉडल)
अनुक्रमिक मॉडल बनाना
आप अनुक्रमिक कंस्ट्रक्टर को परतों की सूची पास करके एक अनुक्रमिक मॉडल बना सकते हैं:
model = keras.Sequential(
[
layers.Dense(2, activation="relu"),
layers.Dense(3, activation="relu"),
layers.Dense(4),
]
)
इसकी परतों के माध्यम से सुलभ हैं layers
विशेषता:
model.layers
[<keras.layers.core.Dense at 0x7fdc784478d0>, <keras.layers.core.Dense at 0x7fdbbc3c4650>, <keras.layers.core.Dense at 0x7fdbbc3c4a10>]
तुम भी के माध्यम से संवर्द्धित एक अनुक्रमिक मॉडल बना सकते हैं add()
विधि:
model = keras.Sequential()
model.add(layers.Dense(2, activation="relu"))
model.add(layers.Dense(3, activation="relu"))
model.add(layers.Dense(4))
नोट वहाँ भी है एक इसी है कि pop()
परतों को हटाने के लिए विधि: बहुत ज्यादा परतों की एक सूची की तरह एक अनुक्रमिक मॉडल बर्ताव करती है।
model.pop()
print(len(model.layers)) # 2
2
यह भी ध्यान रखें कि अनुक्रमिक निर्माता एक को स्वीकार करता है name
बस Keras में किसी भी परत या मॉडल की तरह तर्क,। अर्थपूर्ण अर्थपूर्ण नामों के साथ TensorBoard ग्राफ़ को एनोटेट करने के लिए यह उपयोगी है।
model = keras.Sequential(name="my_sequential")
model.add(layers.Dense(2, activation="relu", name="layer1"))
model.add(layers.Dense(3, activation="relu", name="layer2"))
model.add(layers.Dense(4, name="layer3"))
अग्रिम में इनपुट आकार निर्दिष्ट करना
आम तौर पर, केरस में सभी परतों को अपना वजन बनाने में सक्षम होने के लिए अपने इनपुट के आकार को जानने की जरूरत होती है। तो जब आप इस तरह की एक परत बनाते हैं, तो शुरुआत में इसका कोई भार नहीं होता है:
layer = layers.Dense(3)
layer.weights # Empty
[]
पहली बार इनपुट पर बुलाए जाने पर यह अपना वज़न बनाता है, क्योंकि वज़न का आकार इनपुट के आकार पर निर्भर करता है:
# Call layer on a test input
x = tf.ones((1, 4))
y = layer(x)
layer.weights # Now it has weights, of shape (4, 3) and (3,)
[<tf.Variable 'dense_6/kernel:0' shape=(4, 3) dtype=float32, numpy= array([[ 0.5319189 , -0.8767905 , -0.63919735], [-0.6276014 , 0.1689707 , -0.57695866], [ 0.6710613 , 0.5354214 , -0.00893992], [ 0.15670097, -0.15280598, 0.8865864 ]], dtype=float32)>, <tf.Variable 'dense_6/bias:0' shape=(3,) dtype=float32, numpy=array([0., 0., 0.], dtype=float32)>]
स्वाभाविक रूप से, यह अनुक्रमिक मॉडल पर भी लागू होता है। जब आप एक इनपुट आकार, है ना "का निर्माण" है बिना एक अनुक्रमिक मॉडल का दृष्टांत: यह कोई भार नहीं है (और बुला model.weights
सिर्फ इस बताते हुए एक त्रुटि में परिणाम)। वज़न तब बनाया जाता है जब मॉडल पहली बार कुछ इनपुट डेटा देखता है:
model = keras.Sequential(
[
layers.Dense(2, activation="relu"),
layers.Dense(3, activation="relu"),
layers.Dense(4),
]
) # No weights at this stage!
# At this point, you can't do this:
# model.weights
# You also can't do this:
# model.summary()
# Call the model on a test input
x = tf.ones((1, 4))
y = model(x)
print("Number of weights after calling the model:", len(model.weights)) # 6
Number of weights after calling the model: 6
एक बार एक मॉडल "का निर्माण" है, तो आप अपने फोन कर सकते हैं summary()
उसकी सामग्री को प्रदर्शित करने के लिए विधि:
model.summary()
Model: "sequential_3" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_7 (Dense) (1, 2) 10 _________________________________________________________________ dense_8 (Dense) (1, 3) 9 _________________________________________________________________ dense_9 (Dense) (1, 4) 16 ================================================================= Total params: 35 Trainable params: 35 Non-trainable params: 0 _________________________________________________________________
हालांकि, अनुक्रमिक मॉडल का निर्माण करते समय यह बहुत उपयोगी हो सकता है ताकि वर्तमान आउटपुट आकार सहित मॉडल के सारांश को प्रदर्शित करने में सक्षम हो सके। इस मामले में, आप एक पास करके अपने मॉडल शुरू कर देना चाहिए Input
, अपने मॉडल के लिए वस्तु इतना है कि यह शुरू से ही अपने इनपुट आकार जानता है:
model = keras.Sequential()
model.add(keras.Input(shape=(4,)))
model.add(layers.Dense(2, activation="relu"))
model.summary()
Model: "sequential_4" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_10 (Dense) (None, 2) 10 ================================================================= Total params: 10 Trainable params: 10 Non-trainable params: 0 _________________________________________________________________
ध्यान दें कि Input
वस्तु के हिस्से के रूप प्रदर्शित नहीं किया जाता model.layers
, क्योंकि यह एक परत नहीं है:
model.layers
[<keras.layers.core.Dense at 0x7fdbbc37c390>]
एक सामान्य विकल्प सिर्फ एक पारित करने के लिए है input_shape
अपनी पहली परत के लिए तर्क:
model = keras.Sequential()
model.add(layers.Dense(2, activation="relu", input_shape=(4,)))
model.summary()
Model: "sequential_5" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= dense_11 (Dense) (None, 2) 10 ================================================================= Total params: 10 Trainable params: 10 Non-trainable params: 0 _________________________________________________________________
इस तरह पूर्वनिर्धारित इनपुट आकार के साथ बनाए गए मॉडल में हमेशा वज़न होता है (किसी भी डेटा को देखने से पहले भी) और हमेशा एक परिभाषित आउटपुट आकार होता है।
सामान्य तौर पर, यदि आप जानते हैं कि यह क्या है, तो अनुक्रमिक मॉडल के इनपुट आकार को हमेशा पहले से निर्दिष्ट करने के लिए अनुशंसित सर्वोत्तम अभ्यास है।
एक आम डिबगिंग कार्यप्रवाह: add()
+ summary()
जब एक नया अनुक्रमिक वास्तुकला का निर्माण, यह संवर्द्धित साथ परतों ढेर उपयोगी है add()
और अक्सर मॉडल के सारांश मुद्रित करें। उदाहरण के लिए, इस पर नजर रखने के लिए कैसे के ढेर के लिए सक्षम बनाता Conv2D
और MaxPooling2D
परतों छवि सुविधा नक्शे downsampling जाता है:
model = keras.Sequential()
model.add(keras.Input(shape=(250, 250, 3))) # 250x250 RGB images
model.add(layers.Conv2D(32, 5, strides=2, activation="relu"))
model.add(layers.Conv2D(32, 3, activation="relu"))
model.add(layers.MaxPooling2D(3))
# Can you guess what the current output shape is at this point? Probably not.
# Let's just print it:
model.summary()
# The answer was: (40, 40, 32), so we can keep downsampling...
model.add(layers.Conv2D(32, 3, activation="relu"))
model.add(layers.Conv2D(32, 3, activation="relu"))
model.add(layers.MaxPooling2D(3))
model.add(layers.Conv2D(32, 3, activation="relu"))
model.add(layers.Conv2D(32, 3, activation="relu"))
model.add(layers.MaxPooling2D(2))
# And now?
model.summary()
# Now that we have 4x4 feature maps, time to apply global max pooling.
model.add(layers.GlobalMaxPooling2D())
# Finally, we add a classification layer.
model.add(layers.Dense(10))
Model: "sequential_6" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= conv2d (Conv2D) (None, 123, 123, 32) 2432 _________________________________________________________________ conv2d_1 (Conv2D) (None, 121, 121, 32) 9248 _________________________________________________________________ max_pooling2d (MaxPooling2D) (None, 40, 40, 32) 0 ================================================================= Total params: 11,680 Trainable params: 11,680 Non-trainable params: 0 _________________________________________________________________ Model: "sequential_6" _________________________________________________________________ Layer (type) Output Shape Param # ================================================================= conv2d (Conv2D) (None, 123, 123, 32) 2432 _________________________________________________________________ conv2d_1 (Conv2D) (None, 121, 121, 32) 9248 _________________________________________________________________ max_pooling2d (MaxPooling2D) (None, 40, 40, 32) 0 _________________________________________________________________ conv2d_2 (Conv2D) (None, 38, 38, 32) 9248 _________________________________________________________________ conv2d_3 (Conv2D) (None, 36, 36, 32) 9248 _________________________________________________________________ max_pooling2d_1 (MaxPooling2 (None, 12, 12, 32) 0 _________________________________________________________________ conv2d_4 (Conv2D) (None, 10, 10, 32) 9248 _________________________________________________________________ conv2d_5 (Conv2D) (None, 8, 8, 32) 9248 _________________________________________________________________ max_pooling2d_2 (MaxPooling2 (None, 4, 4, 32) 0 ================================================================= Total params: 48,672 Trainable params: 48,672 Non-trainable params: 0 _________________________________________________________________
बहुत व्यावहारिक, है ना?
एक बार आपके पास मॉडल होने के बाद क्या करें
एक बार आपका मॉडल आर्किटेक्चर तैयार हो जाने के बाद, आप यह करना चाहेंगे:
- अपने मॉडल को प्रशिक्षित करें, उसका मूल्यांकन करें, और अनुमान चलाएँ। हमारे देखें छोरों में निर्मित के साथ प्रशिक्षण और मूल्यांकन करने के लिए गाइड
- अपने मॉडल को डिस्क पर सहेजें और इसे पुनर्स्थापित करें। हमारे देखें क्रमबद्धता और बचत करने के लिए गाइड ।
- कई GPU का लाभ उठाकर मॉडल प्रशिक्षण को गति दें। हमारे देखें बहु GPU और वितरित प्रशिक्षण के लिए गाइड ।
अनुक्रमिक मॉडल के साथ फ़ीचर निष्कर्षण
एक बार एक अनुक्रमिक मॉडल बनाया गया है, यह एक तरह बर्ताव करता है कार्यात्मक एपीआई मॉडल । इसका मतलब है कि हर परत एक है input
और output
विशेषता। इन विशेषताओं का उपयोग साफ-सुथरी चीजों को करने के लिए किया जा सकता है, जैसे कि एक मॉडल बनाना जो अनुक्रमिक मॉडल में सभी मध्यवर्ती परतों के आउटपुट को निकालता है:
initial_model = keras.Sequential(
[
keras.Input(shape=(250, 250, 3)),
layers.Conv2D(32, 5, strides=2, activation="relu"),
layers.Conv2D(32, 3, activation="relu"),
layers.Conv2D(32, 3, activation="relu"),
]
)
feature_extractor = keras.Model(
inputs=initial_model.inputs,
outputs=[layer.output for layer in initial_model.layers],
)
# Call feature extractor on test input.
x = tf.ones((1, 250, 250, 3))
features = feature_extractor(x)
यहां एक समान उदाहरण दिया गया है जो केवल एक परत से सुविधाओं को निकालता है:
initial_model = keras.Sequential(
[
keras.Input(shape=(250, 250, 3)),
layers.Conv2D(32, 5, strides=2, activation="relu"),
layers.Conv2D(32, 3, activation="relu", name="my_intermediate_layer"),
layers.Conv2D(32, 3, activation="relu"),
]
)
feature_extractor = keras.Model(
inputs=initial_model.inputs,
outputs=initial_model.get_layer(name="my_intermediate_layer").output,
)
# Call feature extractor on test input.
x = tf.ones((1, 250, 250, 3))
features = feature_extractor(x)
अनुक्रमिक मॉडल के साथ सीखने को स्थानांतरित करें
ट्रांसफर लर्निंग में मॉडल में निचली परतों को फ्रीज करना और केवल शीर्ष परतों को प्रशिक्षित करना शामिल है। आप इसे से परिचित नहीं हैं, तो हमारी पढ़ना सुनिश्चित हस्तांतरण सीखने के लिए गाइड ।
अनुक्रमिक मॉडल से जुड़े दो सामान्य स्थानांतरण सीखने के ब्लूप्रिंट यहां दिए गए हैं।
सबसे पहले, मान लें कि आपके पास अनुक्रमिक मॉडल है, और आप अंतिम परत को छोड़कर सभी परतों को स्थिर करना चाहते हैं। इस मामले में, आप बस पुनरावृति से अधिक होगा model.layers
और सेट layer.trainable = False
हर परत पर, पिछले एक को छोड़कर। ऐशे ही:
model = keras.Sequential([
keras.Input(shape=(784)),
layers.Dense(32, activation='relu'),
layers.Dense(32, activation='relu'),
layers.Dense(32, activation='relu'),
layers.Dense(10),
])
# Presumably you would want to first load pre-trained weights.
model.load_weights(...)
# Freeze all layers except the last one.
for layer in model.layers[:-1]:
layer.trainable = False
# Recompile and train (this will only update the weights of the last layer).
model.compile(...)
model.fit(...)
एक अन्य सामान्य खाका एक पूर्व-प्रशिक्षित मॉडल और कुछ ताजा आरंभिक वर्गीकरण परतों को ढेर करने के लिए अनुक्रमिक मॉडल का उपयोग करना है। ऐशे ही:
# Load a convolutional base with pre-trained weights
base_model = keras.applications.Xception(
weights='imagenet',
include_top=False,
pooling='avg')
# Freeze the base model
base_model.trainable = False
# Use a Sequential model to add a trainable classifier on top
model = keras.Sequential([
base_model,
layers.Dense(1000),
])
# Compile & train
model.compile(...)
model.fit(...)
यदि आप ट्रांसफर लर्निंग करते हैं, तो आप शायद खुद को इन दो पैटर्न का उपयोग करते हुए पाएंगे।
अनुक्रमिक मॉडलों के बारे में आपको बस इतना ही जानना चाहिए!
केरस में मॉडल बनाने के बारे में और जानने के लिए, देखें: