TensorFlow.org पर देखें | Google Colab में चलाएं | गिटहब पर देखें | नोटबुक डाउनलोड करें |
अपने TensorFlow कोड को TF1.x से TF2 में माइग्रेट करते समय, यह सुनिश्चित करना एक अच्छा अभ्यास है कि आपका माइग्रेट कोड TF2 में उसी तरह व्यवहार करता है जैसा उसने TF1.x में किया था।
इस गाइड में tf.compat.v1.keras.utils.track_tf1_style_variables
मॉडलिंग शिम को tf.keras.layers.Layer
विधियों पर लागू किए गए माइग्रेशन कोड उदाहरणों को शामिल किया गया है। TF2 मॉडलिंग शिम के बारे में अधिक जानने के लिए मॉडल मैपिंग गाइड पढ़ें।
इस गाइड विवरण का उपयोग आप निम्न के लिए कर सकते हैं:
- माइग्रेट कोड का उपयोग करके प्रशिक्षण मॉडल से प्राप्त परिणामों की शुद्धता की पुष्टि करें
- TensorFlow संस्करणों में अपने कोड की संख्यात्मक तुल्यता की पुष्टि करें
सेट अप
pip uninstall -y -q tensorflow
# Install tf-nightly as the DeterministicRandomTestTool is available only in
# Tensorflow 2.8
pip install -q tf-nightly
pip install -q tf_slim
import tensorflow as tf
import tensorflow.compat.v1 as v1
import numpy as np
import tf_slim as slim
import sys
from contextlib import contextmanager
!git clone --depth=1 https://github.com/tensorflow/models.git
import models.research.slim.nets.inception_resnet_v2 as inception
Cloning into 'models'... remote: Enumerating objects: 3192, done.[K remote: Counting objects: 100% (3192/3192), done.[K remote: Compressing objects: 100% (2696/2696), done.[K remote: Total 3192 (delta 848), reused 1381 (delta 453), pack-reused 0[K Receiving objects: 100% (3192/3192), 33.39 MiB | 12.89 MiB/s, done. Resolving deltas: 100% (848/848), done.
यदि आप शिम में फॉरवर्ड पास कोड का एक गैर-तुच्छ हिस्सा डाल रहे हैं, तो आप जानना चाहते हैं कि यह उसी तरह से व्यवहार कर रहा है जैसा उसने TF1.x में किया था। उदाहरण के लिए, पूरे TF-Slim Inception-Resnet-v2 मॉडल को शिम में डालने की कोशिश करने पर विचार करें:
# TF1 Inception resnet v2 forward pass based on slim layers
def inception_resnet_v2(inputs, num_classes, is_training):
with slim.arg_scope(
inception.inception_resnet_v2_arg_scope(batch_norm_scale=True)):
return inception.inception_resnet_v2(inputs, num_classes, is_training=is_training)
class InceptionResnetV2(tf.keras.layers.Layer):
"""Slim InceptionResnetV2 forward pass as a Keras layer"""
def __init__(self, num_classes, **kwargs):
super().__init__(**kwargs)
self.num_classes = num_classes
@tf.compat.v1.keras.utils.track_tf1_style_variables
def call(self, inputs, training=None):
is_training = training or False
# Slim does not accept `None` as a value for is_training,
# Keras will still pass `None` to layers to construct functional models
# without forcing the layer to always be in training or in inference.
# However, `None` is generally considered to run layers in inference.
with slim.arg_scope(
inception.inception_resnet_v2_arg_scope(batch_norm_scale=True)):
return inception.inception_resnet_v2(
inputs, self.num_classes, is_training=is_training)
WARNING:tensorflow:From /tmp/ipykernel_27382/2131234657.py:8: The name tf.keras.utils.track_tf1_style_variables is deprecated. Please use tf.compat.v1.keras.utils.track_tf1_style_variables instead.
जैसा कि ऐसा होता है, यह परत वास्तव में बॉक्स से बाहर पूरी तरह से ठीक काम करती है (सटीक नियमितीकरण हानि ट्रैकिंग के साथ पूर्ण)।
हालाँकि, यह ऐसा कुछ नहीं है जिसे आप हल्के में लेना चाहते हैं। यह सत्यापित करने के लिए नीचे दिए गए चरणों का पालन करें कि यह वास्तव में व्यवहार कर रहा है जैसा कि उसने TF1.x में किया था, नीचे पूर्ण संख्यात्मक तुल्यता को देखने के लिए। ये कदम आपको त्रिभुज करने में भी मदद कर सकते हैं कि फॉरवर्ड पास का कौन सा हिस्सा TF1.x से विचलन पैदा कर रहा है (पहचानें कि मॉडल के एक अलग हिस्से के विपरीत मॉडल फॉरवर्ड पास में विचलन उत्पन्न होता है)।
चरण 1: सत्यापित करें कि चर केवल एक बार बनाए गए हैं
सबसे पहली चीज जो आपको सत्यापित करनी चाहिए, वह यह है कि आपने मॉडल को इस तरह से सही ढंग से बनाया है जो गलती से हर बार नए चर बनाने और उपयोग करने के बजाय प्रत्येक कॉल में चर का पुन: उपयोग करता है। उदाहरण के लिए, यदि आपका मॉडल एक नई केरस परत बनाता है या प्रत्येक फॉरवर्ड पास कॉल में tf.Variable
कॉल करता है, तो यह सबसे अधिक संभावना है कि वेरिएबल को कैप्चर करने और हर बार नए बनाने में विफल हो।
नीचे दो संदर्भ प्रबंधक स्कोप हैं जिनका उपयोग आप यह पता लगाने के लिए कर सकते हैं कि आपका मॉडल कब नए चर बना रहा है और डीबग करें कि मॉडल का कौन सा भाग इसे कर रहा है।
@contextmanager
def assert_no_variable_creations():
"""Assert no variables are created in this context manager scope."""
def invalid_variable_creator(next_creator, **kwargs):
raise ValueError("Attempted to create a new variable instead of reusing an existing one. Args: {}".format(kwargs))
with tf.variable_creator_scope(invalid_variable_creator):
yield
@contextmanager
def catch_and_raise_created_variables():
"""Raise all variables created within this context manager scope (if any)."""
created_vars = []
def variable_catcher(next_creator, **kwargs):
var = next_creator(**kwargs)
created_vars.append(var)
return var
with tf.variable_creator_scope(variable_catcher):
yield
if created_vars:
raise ValueError("Created vars:", created_vars)
एक बार जब आप दायरे के भीतर एक चर बनाने का प्रयास करते हैं तो पहला दायरा ( assert_no_variable_creations()
) तुरंत एक त्रुटि उत्पन्न करेगा। यह आपको स्टैकट्रेस (और इंटरैक्टिव डिबगिंग का उपयोग) का निरीक्षण करने की अनुमति देता है ताकि यह पता लगाया जा सके कि कोड की किन पंक्तियों ने मौजूदा एक का पुन: उपयोग करने के बजाय एक चर बनाया है।
दूसरा स्कोप ( catch_and_raise_created_variables()
) स्कोप के अंत में एक अपवाद उठाएगा यदि कोई वेरिएबल बनाया जा रहा है। इस अपवाद में दायरे में बनाए गए सभी चरों की सूची शामिल होगी। यह पता लगाने के लिए उपयोगी है कि आपके मॉडल द्वारा बनाए जा रहे सभी भारों का सेट क्या है यदि आप सामान्य पैटर्न देख सकते हैं। हालाँकि, यह कोड की सटीक पंक्तियों की पहचान करने के लिए कम उपयोगी है जहाँ वे चर बनाए गए हैं।
यह सत्यापित करने के लिए नीचे दिए गए दोनों क्षेत्रों का उपयोग करें कि शिम-आधारित InceptionResnetV2 परत पहली कॉल (संभवतः उनका पुन: उपयोग) के बाद कोई नया चर नहीं बनाती है।
model = InceptionResnetV2(1000)
height, width = 299, 299
num_classes = 1000
inputs = tf.ones( (1, height, width, 3))
# Create all weights on the first call
model(inputs)
# Verify that no new weights are created in followup calls
with assert_no_variable_creations():
model(inputs)
with catch_and_raise_created_variables():
model(inputs)
/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/keras/engine/base_layer.py:2212: UserWarning: `layer.apply` is deprecated and will be removed in a future version. Please use `layer.__call__` method instead. warnings.warn('`layer.apply` is deprecated and ' /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tf_slim/layers/layers.py:684: UserWarning: `layer.apply` is deprecated and will be removed in a future version. Please use `layer.__call__` method instead. outputs = layer.apply(inputs, training=is_training) /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/keras/legacy_tf_layers/core.py:332: UserWarning: `tf.layers.flatten` is deprecated and will be removed in a future version. Please use `tf.keras.layers.Flatten` instead. warnings.warn('`tf.layers.flatten` is deprecated and '
नीचे दिए गए उदाहरण में, देखें कि ये डेकोरेटर एक ऐसी परत पर कैसे काम करते हैं जो मौजूदा वज़न का पुन: उपयोग करने के बजाय हर बार गलत तरीके से नए वज़न बनाती है।
class BrokenScalingLayer(tf.keras.layers.Layer):
"""Scaling layer that incorrectly creates new weights each time:"""
@tf.compat.v1.keras.utils.track_tf1_style_variables
def call(self, inputs):
var = tf.Variable(initial_value=2.0)
bias = tf.Variable(initial_value=2.0, name='bias')
return inputs * var + bias
model = BrokenScalingLayer()
inputs = tf.ones( (1, height, width, 3))
model(inputs)
try:
with assert_no_variable_creations():
model(inputs)
except ValueError as err:
import traceback
traceback.print_exc()
Traceback (most recent call last): File "/tmp/ipykernel_27382/1128777590.py", line 7, in <module> model(inputs) File "/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/keras/utils/traceback_utils.py", line 67, in error_handler raise e.with_traceback(filtered_tb) from None File "/tmp/ipykernel_27382/3224979076.py", line 6, in call var = tf.Variable(initial_value=2.0) File "/tmp/ipykernel_27382/1829430118.py", line 5, in invalid_variable_creator raise ValueError("Attempted to create a new variable instead of reusing an existing one. Args: {}".format(kwargs)) ValueError: Exception encountered when calling layer "broken_scaling_layer" (type BrokenScalingLayer). Attempted to create a new variable instead of reusing an existing one. Args: {'initial_value': 2.0, 'trainable': None, 'validate_shape': True, 'caching_device': None, 'name': None, 'variable_def': None, 'dtype': None, 'import_scope': None, 'constraint': None, 'synchronization': <VariableSynchronization.AUTO: 0>, 'aggregation': <VariableAggregation.NONE: 0>, 'shape': None} Call arguments received: • inputs=tf.Tensor(shape=(1, 299, 299, 3), dtype=float32)
model = BrokenScalingLayer()
inputs = tf.ones( (1, height, width, 3))
model(inputs)
try:
with catch_and_raise_created_variables():
model(inputs)
except ValueError as err:
print(err)
('Created vars:', [<tf.Variable 'broken_scaling_layer_1/Variable:0' shape=() dtype=float32, numpy=2.0>, <tf.Variable 'broken_scaling_layer_1/bias:0' shape=() dtype=float32, numpy=2.0>])
आप यह सुनिश्चित करके परत को ठीक कर सकते हैं कि यह केवल एक बार वज़न बनाता है और फिर हर बार उनका पुन: उपयोग करता है।
class FixedScalingLayer(tf.keras.layers.Layer):
"""Scaling layer that incorrectly creates new weights each time:"""
def __init__(self):
super().__init__()
self.var = None
self.bias = None
@tf.compat.v1.keras.utils.track_tf1_style_variables
def call(self, inputs):
if self.var is None:
self.var = tf.Variable(initial_value=2.0)
self.bias = tf.Variable(initial_value=2.0, name='bias')
return inputs * self.var + self.bias
model = FixedScalingLayer()
inputs = tf.ones( (1, height, width, 3))
model(inputs)
with assert_no_variable_creations():
model(inputs)
with catch_and_raise_created_variables():
model(inputs)
समस्या निवारण
यहां कुछ सामान्य कारण दिए गए हैं कि क्यों आपका मॉडल गलती से मौजूदा भारों का पुन: उपयोग करने के बजाय नए वज़न का निर्माण कर रहा है:
- यह पहले से बनाए गए
tf.Variables
का पुन: उपयोग किए बिना एक स्पष्टtf.Variable
कॉल का उपयोग करता है। इसे पहले चेक करके ठीक करें कि क्या यह नहीं बनाया गया है और फिर मौजूदा का पुन: उपयोग कर रहा है। - यह हर बार सीधे फॉरवर्ड पास में एक केरस परत या मॉडल बनाता है (जैसा कि
tf.compat.v1.layers
के विपरीत)। इसे पहले चेक करके ठीक करें कि क्या यह नहीं बनाया गया है और फिर मौजूदा का पुन: उपयोग कर रहा है। - यह
tf.compat.v1.layers
के शीर्ष पर बनाया गया है, लेकिन सभीcompat.v1.layers
को एक स्पष्ट नाम निर्दिष्ट करने में विफल रहता है या आपकेcompat.v1.layer
उपयोग को एक नामितvariable_scope
के अंदर लपेटने में विफल रहता है, जिससे ऑटोजेनरेटेड लेयर नामों में वृद्धि होती है प्रत्येक मॉडल कॉल। अपने शिम-डेकोरेटेड मेथड के अंदर एक नामितtf.compat.v1.variable_scope
डालकर इसे ठीक करें जो आपके सभीtf.compat.v1.layers
उपयोग को लपेटता है।
चरण 2: जांचें कि चर संख्या, नाम और आकार मेल खाते हैं
दूसरा चरण यह सुनिश्चित करने के लिए है कि TF2 में चलने वाली आपकी परत समान आकृतियों के साथ समान संख्या में वज़न बनाती है, जैसा कि संबंधित कोड TF1.x में करता है।
यह देखने के लिए कि वे मेल खाते हैं, आप मैन्युअल रूप से उन्हें जांचने का एक मिश्रण कर सकते हैं, और नीचे दिखाए गए अनुसार यूनिट परीक्षण में प्रोग्रामेटिक रूप से जांच कर सकते हैं।
# Build the forward pass inside a TF1.x graph, and
# get the counts, shapes, and names of the variables
graph = tf.Graph()
with graph.as_default(), tf.compat.v1.Session(graph=graph) as sess:
height, width = 299, 299
num_classes = 1000
inputs = tf.ones( (1, height, width, 3))
out, endpoints = inception_resnet_v2(inputs, num_classes, is_training=False)
tf1_variable_names_and_shapes = {
var.name: (var.trainable, var.shape) for var in tf.compat.v1.global_variables()}
num_tf1_variables = len(tf.compat.v1.global_variables())
/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/keras/engine/base_layer_v1.py:1694: UserWarning: `layer.apply` is deprecated and will be removed in a future version. Please use `layer.__call__` method instead. warnings.warn('`layer.apply` is deprecated and '
इसके बाद, TF2 में शिम-लिपटे परत के लिए भी ऐसा ही करें। ध्यान दें कि वजन हथियाने से पहले मॉडल को कई बार भी कहा जाता है। यह परिवर्तनीय पुन: उपयोग के लिए प्रभावी ढंग से परीक्षण करने के लिए किया जाता है।
height, width = 299, 299
num_classes = 1000
model = InceptionResnetV2(num_classes)
# The weights will not be created until you call the model
inputs = tf.ones( (1, height, width, 3))
# Call the model multiple times before checking the weights, to verify variables
# get reused rather than accidentally creating additional variables
out, endpoints = model(inputs, training=False)
out, endpoints = model(inputs, training=False)
# Grab the name: shape mapping and the total number of variables separately,
# because in TF2 variables can be created with the same name
num_tf2_variables = len(model.variables)
tf2_variable_names_and_shapes = {
var.name: (var.trainable, var.shape) for var in model.variables}
2021-12-04 02:27:27.209445: W tensorflow/python/util/util.cc:368] Sets are not currently considered sequences, but this may change in the future, so consider avoiding using them.
# Verify that the variable counts, names, and shapes all match:
assert num_tf1_variables == num_tf2_variables
assert tf1_variable_names_and_shapes == tf2_variable_names_and_shapes
शिम-आधारित InceptionResnetV2 परत इस परीक्षा को पास करती है। हालांकि, उस स्थिति में जहां वे मेल नहीं खाते हैं, आप इसे अंतर (पाठ या अन्य) के माध्यम से यह देखने के लिए चला सकते हैं कि अंतर कहां हैं।
यह एक सुराग प्रदान कर सकता है कि मॉडल का कौन सा हिस्सा अपेक्षित व्यवहार नहीं कर रहा है। उत्सुक निष्पादन के साथ आप मॉडल के उन हिस्सों में खुदाई करने के लिए पीडीबी, इंटरेक्टिव डिबगिंग और ब्रेकप्वाइंट का उपयोग कर सकते हैं जो संदिग्ध लगते हैं, और जो गलत हो रहा है उसे अधिक गहराई से डीबग करें।
समस्या निवारण
स्पष्ट
tf.Variable
कॉल और Keras लेयर्स/मॉडल द्वारा सीधे बनाए गए किसी भी चर के नामों पर ध्यान दें क्योंकि उनके चर नाम पीढ़ी के शब्दार्थ TF1.x ग्राफ़ और TF2 कार्यक्षमता जैसे उत्सुक निष्पादन औरtf.function
के बीच थोड़ा भिन्न हो सकते हैं, भले ही सब कुछ हो अन्य ठीक से काम कर रहा है। यदि आपके लिए यह मामला है, तो किसी भी थोड़े भिन्न नामकरण शब्दार्थ के लिए अपने परीक्षण को खाते में समायोजित करें।आप कभी-कभी पा सकते हैं कि आपके प्रशिक्षण लूप के फ़ॉरवर्ड पास में बनाए गए
tf.Variable
s,tf.keras.layers.Layer
s, याtf.keras.Model
आपकी TF2 चर सूची से गायब हैं, भले ही वे चर संग्रह द्वारा कैप्चर किए गए हों TF1.x में वेरिएबल्स/लेयर्स/मॉडल असाइन करके इसे ठीक करें जो आपके फॉरवर्ड पास आपके मॉडल में इंस्टेंस विशेषताओं के लिए बनाता है। अधिक जानकारी के लिए यहां देखें।
चरण 3: सभी चर रीसेट करें, सभी यादृच्छिकता अक्षम के साथ संख्यात्मक तुल्यता की जांच करें
अगला कदम वास्तविक आउटपुट और नियमितीकरण हानि ट्रैकिंग दोनों के लिए संख्यात्मक तुल्यता को सत्यापित करना है जब आप मॉडल को ठीक करते हैं जैसे कि कोई यादृच्छिक संख्या पीढ़ी शामिल नहीं है (जैसे अनुमान के दौरान)।
ऐसा करने का सटीक तरीका आपके विशिष्ट मॉडल पर निर्भर हो सकता है, लेकिन अधिकांश मॉडलों में (जैसे यह एक), आप इसे निम्न द्वारा कर सकते हैं:
- वज़न को बिना किसी यादृच्छिकता के समान मान पर प्रारंभ करना। यह उन्हें बनाए जाने के बाद एक निश्चित मूल्य पर रीसेट करके किया जा सकता है।
- किसी भी ड्रॉपआउट परतों को ट्रिगर करने से बचने के लिए मॉडल को अनुमान मोड में चलाना जो यादृच्छिकता के स्रोत हो सकते हैं।
निम्न कोड दर्शाता है कि आप इस तरह से TF1.x और TF2 परिणामों की तुलना कैसे कर सकते हैं।
graph = tf.Graph()
with graph.as_default(), tf.compat.v1.Session(graph=graph) as sess:
height, width = 299, 299
num_classes = 1000
inputs = tf.ones( (1, height, width, 3))
out, endpoints = inception_resnet_v2(inputs, num_classes, is_training=False)
# Rather than running the global variable initializers,
# reset all variables to a constant value
var_reset = tf.group([var.assign(tf.ones_like(var) * 0.001) for var in tf.compat.v1.global_variables()])
sess.run(var_reset)
# Grab the outputs & regularization loss
reg_losses = tf.compat.v1.get_collection(tf.compat.v1.GraphKeys.REGULARIZATION_LOSSES)
tf1_regularization_loss = sess.run(tf.math.add_n(reg_losses))
tf1_output = sess.run(out)
print("Regularization loss:", tf1_regularization_loss)
tf1_output[0][:5]
Regularization loss: 0.001182976 array([0.00299837, 0.00299837, 0.00299837, 0.00299837, 0.00299837], dtype=float32)
TF2 परिणाम प्राप्त करें।
height, width = 299, 299
num_classes = 1000
model = InceptionResnetV2(num_classes)
inputs = tf.ones((1, height, width, 3))
# Call the model once to create the weights
out, endpoints = model(inputs, training=False)
# Reset all variables to the same fixed value as above, with no randomness
for var in model.variables:
var.assign(tf.ones_like(var) * 0.001)
tf2_output, endpoints = model(inputs, training=False)
# Get the regularization loss
tf2_regularization_loss = tf.math.add_n(model.losses)
print("Regularization loss:", tf2_regularization_loss)
tf2_output[0][:5]
Regularization loss: tf.Tensor(0.0011829757, shape=(), dtype=float32) <tf.Tensor: shape=(5,), dtype=float32, numpy= array([0.00299837, 0.00299837, 0.00299837, 0.00299837, 0.00299837], dtype=float32)>
# Create a dict of tolerance values
tol_dict={'rtol':1e-06, 'atol':1e-05}
# Verify that the regularization loss and output both match
# when we fix the weights and avoid randomness by running inference:
np.testing.assert_allclose(tf1_regularization_loss, tf2_regularization_loss.numpy(), **tol_dict)
np.testing.assert_allclose(tf1_output, tf2_output.numpy(), **tol_dict)
जब आप यादृच्छिकता के स्रोतों को हटाते हैं, तो संख्याएँ TF1.x और TF2 के बीच मेल खाती हैं, और TF2-संगत InceptionResnetV2
परत परीक्षण पास कर लेती है।
यदि आप अपने स्वयं के मॉडल के लिए परिणामों को अलग करते हुए देख रहे हैं, तो आप प्रिंटिंग या पीडीबी और इंटरेक्टिव डिबगिंग का उपयोग यह पहचानने के लिए कर सकते हैं कि परिणाम कहां और क्यों अलग होने लगते हैं। उत्सुक निष्पादन इसे काफी आसान बना सकता है। आप निश्चित मध्यवर्ती इनपुट पर मॉडल के केवल छोटे हिस्से को चलाने के लिए एक पृथक दृष्टिकोण का उपयोग कर सकते हैं और जहां विचलन होता है उसे अलग कर सकते हैं।
आसानी से, कई पतले जाल (और अन्य मॉडल) मध्यवर्ती समापन बिंदुओं को भी उजागर करते हैं जिनकी आप जांच कर सकते हैं।
चरण 4: यादृच्छिक संख्या पीढ़ी को संरेखित करें, प्रशिक्षण और अनुमान दोनों में संख्यात्मक समानता की जाँच करें
अंतिम चरण यह सत्यापित करना है कि TF2 मॉडल संख्यात्मक रूप से TF1.x मॉडल से मेल खाता है, भले ही वेरिएबल इनिशियलाइज़ेशन में यादृच्छिक संख्या पीढ़ी के लिए लेखांकन और फ़ॉरवर्ड पास में ही (जैसे फ़ॉरवर्ड पास के दौरान ड्रॉपआउट परतें)।
आप TF1.x ग्राफ़/सत्रों और उत्सुक निष्पादन के बीच यादृच्छिक संख्या पीढ़ी शब्दार्थ मिलान करने के लिए नीचे दिए गए परीक्षण उपकरण का उपयोग करके ऐसा कर सकते हैं।
TF1 लीगेसी ग्राफ़/सत्र और TF2 उत्सुक निष्पादन विभिन्न स्टेटफुल रैंडम नंबर जेनरेशन सेमेन्टिक्स का उपयोग करते हैं।
tf.compat.v1.Session
s में, यदि कोई बीज निर्दिष्ट नहीं है, तो यादृच्छिक संख्या पीढ़ी इस बात पर निर्भर करती है कि उस समय ग्राफ़ में कितने ऑपरेशन हैं जब रैंडम ऑपरेशन जोड़ा जाता है, और ग्राफ़ कितनी बार चलाया जाता है। उत्सुक निष्पादन में, स्टेटफुल रैंडम नंबर जेनरेशन ग्लोबल सीड, ऑपरेशन रैंडम सीड पर निर्भर करता है, और दिए गए रैंडम सीड के साथ ऑपरेशन के साथ कितनी बार ऑपरेशन चलाया जाता है। अधिक जानकारी के लिए tf.random.set_seed
देखें।
निम्नलिखित v1.keras.utils.DeterministicRandomTestTool
वर्ग एक संदर्भ प्रबंधक scope()
प्रदान करता है जो स्टेटफुल रैंडम ऑपरेशंस को TF1 ग्राफ़/सत्र और उत्सुक निष्पादन दोनों में एक ही बीज का उपयोग कर सकता है।
उपकरण दो परीक्षण मोड प्रदान करता है:
-
constant
जो हर एक ऑपरेशन के लिए एक ही बीज का उपयोग करता है, चाहे उसे कितनी भी बार कहा गया हो और, -
num_random_ops
जो ऑपरेशन बीज के रूप में पहले देखे गए स्टेटफुल रैंडम ऑपरेशंस की संख्या का उपयोग करता है।
यह वैरिएबल बनाने और आरंभ करने के लिए उपयोग किए जाने वाले स्टेटफुल रैंडम ऑपरेशंस और गणना में उपयोग किए जाने वाले स्टेटफुल रैंडम ऑपरेशंस (जैसे ड्रॉपआउट लेयर्स के लिए) दोनों पर लागू होता है।
सत्र और उत्सुक निष्पादन के बीच स्टेटफुल रैंडम नंबर जेनरेशन मैच बनाने के लिए इस टूल का उपयोग करने का तरीका दिखाने के लिए तीन रैंडम टेंसर जेनरेट करें।
random_tool = v1.keras.utils.DeterministicRandomTestTool()
with random_tool.scope():
graph = tf.Graph()
with graph.as_default(), tf.compat.v1.Session(graph=graph) as sess:
a = tf.random.uniform(shape=(3,1))
a = a * 3
b = tf.random.uniform(shape=(3,3))
b = b * 3
c = tf.random.uniform(shape=(3,3))
c = c * 3
graph_a, graph_b, graph_c = sess.run([a, b, c])
graph_a, graph_b, graph_c
(array([[2.5063772], [2.7488918], [1.4839486]], dtype=float32), array([[2.5063772, 2.7488918, 1.4839486], [1.5633398, 2.1358476, 1.3693532], [0.3598416, 1.8287641, 2.5314465]], dtype=float32), array([[2.5063772, 2.7488918, 1.4839486], [1.5633398, 2.1358476, 1.3693532], [0.3598416, 1.8287641, 2.5314465]], dtype=float32))
random_tool = v1.keras.utils.DeterministicRandomTestTool()
with random_tool.scope():
a = tf.random.uniform(shape=(3,1))
a = a * 3
b = tf.random.uniform(shape=(3,3))
b = b * 3
c = tf.random.uniform(shape=(3,3))
c = c * 3
a, b, c
प्लेसहोल्डर32 l10n-प्लेसहोल्डर(<tf.Tensor: shape=(3, 1), dtype=float32, numpy= array([[2.5063772], [2.7488918], [1.4839486]], dtype=float32)>, <tf.Tensor: shape=(3, 3), dtype=float32, numpy= array([[2.5063772, 2.7488918, 1.4839486], [1.5633398, 2.1358476, 1.3693532], [0.3598416, 1.8287641, 2.5314465]], dtype=float32)>, <tf.Tensor: shape=(3, 3), dtype=float32, numpy= array([[2.5063772, 2.7488918, 1.4839486], [1.5633398, 2.1358476, 1.3693532], [0.3598416, 1.8287641, 2.5314465]], dtype=float32)>)
# Demonstrate that the generated random numbers match
np.testing.assert_allclose(graph_a, a.numpy(), **tol_dict)
np.testing.assert_allclose(graph_b, b.numpy(), **tol_dict)
np.testing.assert_allclose(graph_c, c.numpy(), **tol_dict)
हालाँकि, ध्यान दें कि constant
मोड में, क्योंकि b
और c
एक ही बीज से उत्पन्न हुए थे और उनका आकार समान था, उनके मान बिल्कुल समान होंगे।
np.testing.assert_allclose(b.numpy(), c.numpy(), **tol_dict)
ट्रेस ऑर्डर
यदि आप कुछ यादृच्छिक संख्याओं के constant
मोड में मेल खाने के बारे में चिंतित हैं जो आपके संख्यात्मक तुल्यता परीक्षण में आपके आत्मविश्वास को कम कर रहे हैं (उदाहरण के लिए यदि कई भार एक ही आरंभीकरण पर लगते हैं), तो आप इससे बचने के लिए num_random_ops
मोड का उपयोग कर सकते हैं। num_random_ops
मोड में, उत्पन्न रैंडम नंबर प्रोग्राम में रैंडम ऑप्स के क्रम पर निर्भर करेगा।
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
graph = tf.Graph()
with graph.as_default(), tf.compat.v1.Session(graph=graph) as sess:
a = tf.random.uniform(shape=(3,1))
a = a * 3
b = tf.random.uniform(shape=(3,3))
b = b * 3
c = tf.random.uniform(shape=(3,3))
c = c * 3
graph_a, graph_b, graph_c = sess.run([a, b, c])
graph_a, graph_b, graph_c
(array([[2.5063772], [2.7488918], [1.4839486]], dtype=float32), array([[0.45038545, 1.9197761 , 2.4536333 ], [1.0371652 , 2.9898582 , 1.924583 ], [0.25679827, 1.6579313 , 2.8418403 ]], dtype=float32), array([[2.9634383 , 1.0862181 , 2.6042497 ], [0.70099247, 2.3920312 , 1.0470468 ], [0.18173039, 0.8359269 , 1.0508587 ]], dtype=float32))
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
a = tf.random.uniform(shape=(3,1))
a = a * 3
b = tf.random.uniform(shape=(3,3))
b = b * 3
c = tf.random.uniform(shape=(3,3))
c = c * 3
a, b, c
(<tf.Tensor: shape=(3, 1), dtype=float32, numpy= array([[2.5063772], [2.7488918], [1.4839486]], dtype=float32)>, <tf.Tensor: shape=(3, 3), dtype=float32, numpy= array([[0.45038545, 1.9197761 , 2.4536333 ], [1.0371652 , 2.9898582 , 1.924583 ], [0.25679827, 1.6579313 , 2.8418403 ]], dtype=float32)>, <tf.Tensor: shape=(3, 3), dtype=float32, numpy= array([[2.9634383 , 1.0862181 , 2.6042497 ], [0.70099247, 2.3920312 , 1.0470468 ], [0.18173039, 0.8359269 , 1.0508587 ]], dtype=float32)>)
# Demonstrate that the generated random numbers match
np.testing.assert_allclose(graph_a, a.numpy(), **tol_dict)
np.testing.assert_allclose(graph_b, b.numpy(), **tol_dict )
np.testing.assert_allclose(graph_c, c.numpy(), **tol_dict)
# Demonstrate that with the 'num_random_ops' mode,
# b & c took on different values even though
# their generated shape was the same
assert not np.allclose(b.numpy(), c.numpy(), **tol_dict)
हालाँकि, ध्यान दें कि इस मोड में रैंडम जेनरेशन प्रोग्राम ऑर्डर के प्रति संवेदनशील है, और इसलिए निम्न जनरेट किए गए रैंडम नंबर मेल नहीं खाते।
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
a = tf.random.uniform(shape=(3,1))
a = a * 3
b = tf.random.uniform(shape=(3,3))
b = b * 3
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
b_prime = tf.random.uniform(shape=(3,3))
b_prime = b_prime * 3
a_prime = tf.random.uniform(shape=(3,1))
a_prime = a_prime * 3
assert not np.allclose(a.numpy(), a_prime.numpy())
assert not np.allclose(b.numpy(), b_prime.numpy())
ट्रेसिंग ऑर्डर के कारण डिबगिंग विविधताओं की अनुमति देने के लिए, num_random_ops
मोड में DeterministicRandomTestTool
आपको यह देखने की अनुमति देता है कि ऑपरेशन_सीड संपत्ति के साथ कितने यादृच्छिक operation_seed
का पता लगाया गया है।
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
print(random_tool.operation_seed)
a = tf.random.uniform(shape=(3,1))
a = a * 3
print(random_tool.operation_seed)
b = tf.random.uniform(shape=(3,3))
b = b * 3
print(random_tool.operation_seed)
0 1 2
यदि आपको अपने परीक्षणों में अलग-अलग ट्रेस ऑर्डर के लिए खाते की आवश्यकता है, तो आप ऑटो-इंक्रिमेंटिंग operation_seed
को भी स्पष्ट रूप से सेट कर सकते हैं। उदाहरण के लिए, आप इसका उपयोग दो अलग-अलग प्रोग्राम ऑर्डर में यादृच्छिक संख्या पीढ़ी मिलान करने के लिए कर सकते हैं।
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
print(random_tool.operation_seed)
a = tf.random.uniform(shape=(3,1))
a = a * 3
print(random_tool.operation_seed)
b = tf.random.uniform(shape=(3,3))
b = b * 3
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
random_tool.operation_seed = 1
b_prime = tf.random.uniform(shape=(3,3))
b_prime = b_prime * 3
random_tool.operation_seed = 0
a_prime = tf.random.uniform(shape=(3,1))
a_prime = a_prime * 3
np.testing.assert_allclose(a.numpy(), a_prime.numpy(), **tol_dict)
np.testing.assert_allclose(b.numpy(), b_prime.numpy(), **tol_dict)
0 1
हालांकि, DeterministicRandomTestTool
पहले से उपयोग किए गए ऑपरेशन बीजों का पुन: उपयोग करने की अनुमति नहीं देता है, इसलिए सुनिश्चित करें कि ऑटो-इंक्रीमेंट किए गए अनुक्रम ओवरलैप नहीं हो सकते हैं। ऐसा इसलिए है क्योंकि उत्सुक निष्पादन एक ही ऑपरेशन बीज के फॉलो-ऑन उपयोगों के लिए अलग-अलग संख्याएं उत्पन्न करता है जबकि टीएफ 1 ग्राफ और सत्र नहीं करते हैं, इसलिए त्रुटि उठाने से सत्र और उत्सुक राज्यपूर्ण यादृच्छिक संख्या पीढ़ी को लाइन में रखने में मदद मिलती है।
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
random_tool.operation_seed = 1
b_prime = tf.random.uniform(shape=(3,3))
b_prime = b_prime * 3
random_tool.operation_seed = 0
a_prime = tf.random.uniform(shape=(3,1))
a_prime = a_prime * 3
try:
c = tf.random.uniform(shape=(3,1))
raise RuntimeError("An exception should have been raised before this, " +
"because the auto-incremented operation seed will " +
"overlap an already-used value")
except ValueError as err:
print(err)
This `DeterministicRandomTestTool` object is trying to re-use the already-used operation seed 1. It cannot guarantee random numbers will match between eager and sessions when an operation seed is reused. You most likely set `operation_seed` explicitly but used a value that caused the naturally-incrementing operation seed sequences to overlap with an already-used seed.
अनुमान सत्यापित करना
अब आप यह सुनिश्चित करने के लिए DeterministicRandomTestTool
का उपयोग कर सकते हैं कि InceptionResnetV2
मॉडल अनुमान से मेल खाता है, तब भी जब रैंडम वेट इनिशियलाइज़ेशन का उपयोग किया जाता है। मैचिंग प्रोग्राम ऑर्डर के कारण एक मजबूत परीक्षण स्थिति के लिए, num_random_ops
मोड का उपयोग करें।
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
graph = tf.Graph()
with graph.as_default(), tf.compat.v1.Session(graph=graph) as sess:
height, width = 299, 299
num_classes = 1000
inputs = tf.ones( (1, height, width, 3))
out, endpoints = inception_resnet_v2(inputs, num_classes, is_training=False)
# Initialize the variables
sess.run(tf.compat.v1.global_variables_initializer())
# Grab the outputs & regularization loss
reg_losses = tf.compat.v1.get_collection(tf.compat.v1.GraphKeys.REGULARIZATION_LOSSES)
tf1_regularization_loss = sess.run(tf.math.add_n(reg_losses))
tf1_output = sess.run(out)
print("Regularization loss:", tf1_regularization_loss)
Regularization loss: 1.2254326
height, width = 299, 299
num_classes = 1000
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
model = InceptionResnetV2(num_classes)
inputs = tf.ones((1, height, width, 3))
tf2_output, endpoints = model(inputs, training=False)
# Grab the regularization loss as well
tf2_regularization_loss = tf.math.add_n(model.losses)
print("Regularization loss:", tf2_regularization_loss)
Regularization loss: tf.Tensor(1.2254325, shape=(), dtype=float32)
# Verify that the regularization loss and output both match
# when using the DeterministicRandomTestTool:
np.testing.assert_allclose(tf1_regularization_loss, tf2_regularization_loss.numpy(), **tol_dict)
np.testing.assert_allclose(tf1_output, tf2_output.numpy(), **tol_dict)
प्रशिक्षण का सत्यापन
क्योंकि DeterministicRandomTestTool
सभी स्टेटफुल रैंडम ऑपरेशंस (वेट इनिशियलाइज़ेशन और कंप्यूटेशन जैसे ड्रॉपआउट लेयर्स दोनों सहित) के लिए काम करता है, आप इसका इस्तेमाल ट्रेनिंग मोड में भी मॉडल मैच को सत्यापित करने के लिए कर सकते हैं। आप फिर से num_random_ops
मोड का उपयोग कर सकते हैं क्योंकि स्टेटफुल रैंडम ऑप्स का प्रोग्राम ऑर्डर मेल खाता है।
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
graph = tf.Graph()
with graph.as_default(), tf.compat.v1.Session(graph=graph) as sess:
height, width = 299, 299
num_classes = 1000
inputs = tf.ones( (1, height, width, 3))
out, endpoints = inception_resnet_v2(inputs, num_classes, is_training=True)
# Initialize the variables
sess.run(tf.compat.v1.global_variables_initializer())
# Grab the outputs & regularization loss
reg_losses = tf.compat.v1.get_collection(tf.compat.v1.GraphKeys.REGULARIZATION_LOSSES)
tf1_regularization_loss = sess.run(tf.math.add_n(reg_losses))
tf1_output = sess.run(out)
print("Regularization loss:", tf1_regularization_loss)
WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/keras/layers/normalization/batch_normalization.py:532: _colocate_with (from tensorflow.python.framework.ops) is deprecated and will be removed in a future version. Instructions for updating: Colocations handled automatically by placer. Regularization loss: 1.22548
height, width = 299, 299
num_classes = 1000
random_tool = v1.keras.utils.DeterministicRandomTestTool(mode='num_random_ops')
with random_tool.scope():
model = InceptionResnetV2(num_classes)
inputs = tf.ones((1, height, width, 3))
tf2_output, endpoints = model(inputs, training=True)
# Grab the regularization loss as well
tf2_regularization_loss = tf.math.add_n(model.losses)
print("Regularization loss:", tf2_regularization_loss)
Regularization loss: tf.Tensor(1.2254798, shape=(), dtype=float32)
# Verify that the regularization loss and output both match
# when using the DeterministicRandomTestTool
np.testing.assert_allclose(tf1_regularization_loss, tf2_regularization_loss.numpy(), **tol_dict)
np.testing.assert_allclose(tf1_output, tf2_output.numpy(), **tol_dict)
आपने अब सत्यापित कर लिया है कि InceptionResnetV2
मॉडल tf.keras.layers.Layer
के आसपास डेकोरेटर्स के साथ उत्सुकता से चल रहा है। TF1 ग्राफ़ और सत्रों में चलने वाले स्लिम नेटवर्क से संख्यात्मक रूप से मेल खाता है।
उदाहरण के लिए, InceptionResnetV2
परत को सीधे training=True
इंटरलीव्स वैरिएबल इनिशियलाइज़ेशन।
दूसरी ओर, पहले tf.keras.layers.Layer
डेकोरेटर को केरस फंक्शनल मॉडल में रखना और उसके बाद ही मॉडल को training=True
के साथ कॉल करना सभी वेरिएबल्स को इनिशियलाइज़ करने के बाद ड्रॉपआउट लेयर का उपयोग करने के बराबर है। यह एक अलग अनुरेखण क्रम और यादृच्छिक संख्याओं का एक अलग सेट उत्पन्न करता है।
हालाँकि, डिफ़ॉल्ट mode='constant'
ट्रेसिंग क्रम में इन अंतरों के प्रति संवेदनशील नहीं है और केरस कार्यात्मक मॉडल में परत को एम्बेड करते समय भी अतिरिक्त काम के बिना गुजर जाएगा।
random_tool = v1.keras.utils.DeterministicRandomTestTool()
with random_tool.scope():
graph = tf.Graph()
with graph.as_default(), tf.compat.v1.Session(graph=graph) as sess:
height, width = 299, 299
num_classes = 1000
inputs = tf.ones( (1, height, width, 3))
out, endpoints = inception_resnet_v2(inputs, num_classes, is_training=True)
# Initialize the variables
sess.run(tf.compat.v1.global_variables_initializer())
# Get the outputs & regularization losses
reg_losses = tf.compat.v1.get_collection(tf.compat.v1.GraphKeys.REGULARIZATION_LOSSES)
tf1_regularization_loss = sess.run(tf.math.add_n(reg_losses))
tf1_output = sess.run(out)
print("Regularization loss:", tf1_regularization_loss)
Regularization loss: 1.2239965
height, width = 299, 299
num_classes = 1000
random_tool = v1.keras.utils.DeterministicRandomTestTool()
with random_tool.scope():
keras_input = tf.keras.Input(shape=(height, width, 3))
layer = InceptionResnetV2(num_classes)
model = tf.keras.Model(inputs=keras_input, outputs=layer(keras_input))
inputs = tf.ones((1, height, width, 3))
tf2_output, endpoints = model(inputs, training=True)
# Get the regularization loss
tf2_regularization_loss = tf.math.add_n(model.losses)
print("Regularization loss:", tf2_regularization_loss)
/tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/keras/engine/base_layer.py:1345: UserWarning: `layer.updates` will be removed in a future version. This property should not be used in TensorFlow 2.0, as `updates` are applied automatically. warnings.warn('`layer.updates` will be removed in a future version. ' /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/keras/legacy_tf_layers/base.py:573: UserWarning: `layer.updates` will be removed in a future version. This property should not be used in TensorFlow 2.0, as `updates` are applied automatically. _add_elements_to_collection(self.updates, tf.compat.v1.GraphKeys.UPDATE_OPS) Regularization loss: tf.Tensor(1.2239964, shape=(), dtype=float32)
# Verify that the regularization loss and output both match
# when using the DeterministicRandomTestTool
np.testing.assert_allclose(tf1_regularization_loss, tf2_regularization_loss.numpy(), **tol_dict)
np.testing.assert_allclose(tf1_output, tf2_output.numpy(), **tol_dict)
चरण 3बी या 4बी (वैकल्पिक): पहले से मौजूद चौकियों के साथ परीक्षण
ऊपर चरण 3 या चरण 4 के बाद, यदि आपके पास कुछ है तो पहले से मौजूद नाम-आधारित चौकियों से शुरू करते समय अपने संख्यात्मक तुल्यता परीक्षण चलाने के लिए उपयोगी हो सकता है। यह दोनों का परीक्षण कर सकता है कि आपकी लीगेसी चेकपॉइंट लोडिंग सही ढंग से काम कर रही है और यह कि मॉडल स्वयं सही काम कर रहा है। TF1.x चेकपॉइंट्स का पुन: उपयोग करने वाली मार्गदर्शिका में आपके पहले से मौजूद TF1.x चौकियों का पुन: उपयोग करने और उन्हें TF2 चौकियों पर स्थानांतरित करने का तरीका शामिल है।
अतिरिक्त परीक्षण और समस्या निवारण
जैसे-जैसे आप अधिक संख्यात्मक तुल्यता परीक्षण जोड़ते हैं, आप एक ऐसा परीक्षण जोड़ना भी चुन सकते हैं जो आपके ग्रेडिएंट गणना (या यहां तक कि आपके अनुकूलक अपडेट) मिलान की पुष्टि करता हो।
मॉडल फॉरवर्ड पास की तुलना में बैकप्रोपेगेशन और ग्रेडिएंट कंप्यूटेशन फ्लोटिंग पॉइंट न्यूमेरिकल अस्थिरता के लिए अधिक प्रवण हैं। इसका मतलब यह है कि जैसे-जैसे आपके तुल्यता परीक्षण आपके प्रशिक्षण के अधिक गैर-पृथक भागों को कवर करते हैं, आप पूरी तरह से उत्सुकता से चलने और आपके TF1 ग्राफ़ के बीच गैर-तुच्छ संख्यात्मक अंतर देखना शुरू कर सकते हैं। यह TensorFlow के ग्राफ़ ऑप्टिमाइज़ेशन के कारण हो सकता है जो कम गणितीय संचालन वाले ग्राफ़ में उप-अभिव्यक्तियों को प्रतिस्थापित करने जैसे कार्य करते हैं।
यह अलग करने के लिए कि क्या ऐसा होने की संभावना है, आप अपने TF1 कोड की तुलना TF2 गणना से कर सकते हैं जो एक tf.function
(जो आपके TF1 ग्राफ़ की तरह ग्राफ़ ऑप्टिमाइज़ेशन पास लागू करता है) के अंदर हो रहा है, न कि विशुद्ध रूप से उत्सुक गणना के लिए। वैकल्पिक रूप से, आप अपने TF1 गणना से पहले "arithmetic_optimization"
अंकगणित_अनुकूलन" जैसे अनुकूलन पास को अक्षम करने के लिए tf.config.optimizer.set_experimental_options
का उपयोग करके देख सकते हैं कि परिणाम संख्यात्मक रूप से आपके TF2 गणना परिणामों के करीब है या नहीं। आपके वास्तविक प्रशिक्षण में यह अनुशंसा की जाती है कि आप प्रदर्शन कारणों से सक्षम अनुकूलन पास के साथ tf.function
का उपयोग करें, लेकिन आपको अपने संख्यात्मक तुल्यता इकाई परीक्षणों में उन्हें अक्षम करना उपयोगी हो सकता है।
इसी तरह, आप यह भी पा सकते हैं कि tf.compat.v1.train
ऑप्टिमाइज़र और TF2 ऑप्टिमाइज़र में TF2 ऑप्टिमाइज़र की तुलना में फ़्लोटिंग पॉइंट न्यूमेरिक्स गुण थोड़े भिन्न होते हैं, भले ही वे जिस गणितीय फ़ार्मुलों का प्रतिनिधित्व कर रहे हों, वे समान हों। यह आपके प्रशिक्षण रन में कोई समस्या होने की संभावना नहीं है, लेकिन इसके लिए तुल्यता इकाई परीक्षणों में उच्च संख्यात्मक सहिष्णुता की आवश्यकता हो सकती है।