عرض على TensorFlow.org | تشغيل في Google Colab | عرض على جيثب | تحميل دفتر |
ملخص
يفترض هذا الدليل أن لديك نموذجًا يحفظ ويحمل نقاط التفتيش باستخدام tf.compat.v1.Saver
، وتريد ترحيل الكود باستخدام TF2 tf.train.Checkpoint
API ، أو استخدام نقاط التحقق الموجودة مسبقًا في نموذج TF2 الخاص بك.
فيما يلي بعض السيناريوهات الشائعة التي قد تواجهها:
السيناريو 1
هناك نقاط تفتيش TF1 موجودة من دورات تدريبية سابقة تحتاج إلى تحميلها أو تحويلها إلى TF2.
- لتحميل نقطة تفتيش TF1 في TF2 ، راجع المقتطف قم بتحميل نقطة تفتيش TF1 في TF2 .
- لتحويل نقطة التفتيش إلى TF2 ، راجع تحويل نقطة التحقق.
السيناريو 2
أنت تعدل النموذج الخاص بك بطريقة تخاطر بتغيير أسماء المتغيرات والمسارات (على سبيل المثال ، عند الترحيل التدريجي بعيدًا عن get_variable
إلى إنشاء tf.Variable
واضح) ، وترغب في الحفاظ على حفظ / تحميل نقاط التحقق الموجودة على طول الطريق.
راجع القسم الخاص بكيفية الحفاظ على توافق نقاط التفتيش أثناء ترحيل النموذج
السيناريو 3
أنت تقوم بترحيل رمز التدريب ونقاط التفتيش الخاصة بك إلى TF2 ، لكن خط أنابيب الاستدلال الخاص بك يستمر في طلب نقاط تفتيش TF1 في الوقت الحالي (لاستقرار الإنتاج).
الخيار 1
احفظ نقاط تفتيش TF1 و TF2 عند التدريب.
الخيار 2
قم بتحويل نقطة تفتيش TF2 إلى TF1.
- انظر تحويل نقطة التفتيش
توضح الأمثلة أدناه جميع مجموعات حفظ وتحميل نقاط التفتيش في TF1 / TF2 ، بحيث يكون لديك بعض المرونة في تحديد كيفية ترحيل النموذج الخاص بك.
يثبت
import tensorflow as tf
import tensorflow.compat.v1 as tf1
def print_checkpoint(save_path):
reader = tf.train.load_checkpoint(save_path)
shapes = reader.get_variable_to_shape_map()
dtypes = reader.get_variable_to_dtype_map()
print(f"Checkpoint at '{save_path}':")
for key in shapes:
print(f" (key='{key}', shape={shapes[key]}, dtype={dtypes[key].name}, "
f"value={reader.get_tensor(key)})")
التغييرات من TF1 إلى TF2
يتم تضمين هذا القسم إذا كنت مهتمًا بما تم تغييره بين TF1 و TF2 ، وما نعنيه بنقاط التفتيش "القائمة على الاسم" (TF1) مقابل نقاط التفتيش "القائمة على الكائن" (TF2).
يتم حفظ نوعي نقاط التحقق بالفعل بنفس التنسيق ، والذي يعد في الأساس جدول قيمة مفتاح. يكمن الاختلاف في كيفية إنشاء المفاتيح.
المفاتيح في نقاط التفتيش المسماة هي أسماء المتغيرات . تشير المفاتيح في نقاط التفتيش المستندة إلى الكائن إلى المسار من الكائن الجذر إلى المتغير (ستساعد الأمثلة أدناه في الحصول على فهم أفضل لما يعنيه هذا).
أولاً ، احفظ بعض نقاط التفتيش:
with tf.Graph().as_default() as g:
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
c = tf1.get_variable('scoped/c', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
with tf1.Session() as sess:
saver = tf1.train.Saver()
sess.run(a.assign(1))
sess.run(b.assign(2))
sess.run(c.assign(3))
saver.save(sess, 'tf1-ckpt')
print_checkpoint('tf1-ckpt')
Checkpoint at 'tf1-ckpt': (key='scoped/c', shape=[], dtype=float32, value=3.0) (key='a', shape=[], dtype=float32, value=1.0) (key='b', shape=[], dtype=float32, value=2.0)
a = tf.Variable(5.0, name='a')
b = tf.Variable(6.0, name='b')
with tf.name_scope('scoped'):
c = tf.Variable(7.0, name='c')
ckpt = tf.train.Checkpoint(variables=[a, b, c])
save_path_v2 = ckpt.save('tf2-ckpt')
print_checkpoint(save_path_v2)
Checkpoint at 'tf2-ckpt-1': (key='variables/2/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=7.0) (key='variables/0/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=5.0) (key='_CHECKPOINTABLE_OBJECT_GRAPH', shape=[], dtype=string, value=b"\n!\n\r\x08\x01\x12\tvariables\n\x10\x08\x02\x12\x0csave_counter\n\x15\n\x05\x08\x03\x12\x010\n\x05\x08\x04\x12\x011\n\x05\x08\x05\x12\x012\nI\x12G\n\x0eVARIABLE_VALUE\x12\x0csave_counter\x1a'save_counter/.ATTRIBUTES/VARIABLE_VALUE\n=\x12;\n\x0eVARIABLE_VALUE\x12\x01a\x1a&variables/0/.ATTRIBUTES/VARIABLE_VALUE\n=\x12;\n\x0eVARIABLE_VALUE\x12\x01b\x1a&variables/1/.ATTRIBUTES/VARIABLE_VALUE\nD\x12B\n\x0eVARIABLE_VALUE\x12\x08scoped/c\x1a&variables/2/.ATTRIBUTES/VARIABLE_VALUE") (key='variables/1/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=6.0) (key='save_counter/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=int64, value=1)
إذا نظرت إلى المفاتيح في tf2-ckpt
، فإنها تشير جميعها إلى مسارات الكائنات لكل متغير. على سبيل المثال ، المتغير a
هو العنصر الأول في قائمة variables
، لذلك يصبح مفتاحه variables/0/...
(لا تتردد في تجاهل ثابت .ATTRIBUTES / VARIABLE_VALUE).
فحص دقيق لكائن Checkpoint
أدناه:
a = tf.Variable(0.)
b = tf.Variable(0.)
c = tf.Variable(0.)
root = ckpt = tf.train.Checkpoint(variables=[a, b, c])
print("root type =", type(root).__name__)
print("root.variables =", root.variables)
print("root.variables[0] =", root.variables[0])
root type = Checkpoint root.variables = ListWrapper([<tf.Variable 'Variable:0' shape=() dtype=float32, numpy=0.0>, <tf.Variable 'Variable:0' shape=() dtype=float32, numpy=0.0>, <tf.Variable 'Variable:0' shape=() dtype=float32, numpy=0.0>]) root.variables[0] = <tf.Variable 'Variable:0' shape=() dtype=float32, numpy=0.0>
حاول تجربة المقتطف أدناه وشاهد كيف تتغير مفاتيح نقاط التفتيش مع بنية الكائن:
module = tf.Module()
module.d = tf.Variable(0.)
test_ckpt = tf.train.Checkpoint(v={'a': a, 'b': b},
c=c,
module=module)
test_ckpt_path = test_ckpt.save('root-tf2-ckpt')
print_checkpoint(test_ckpt_path)
Checkpoint at 'root-tf2-ckpt-1': (key='v/a/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=0.0) (key='save_counter/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=int64, value=1) (key='v/b/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=0.0) (key='module/d/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=0.0) (key='_CHECKPOINTABLE_OBJECT_GRAPH', shape=[], dtype=string, value=b"\n,\n\x05\x08\x01\x12\x01c\n\n\x08\x02\x12\x06module\n\x05\x08\x03\x12\x01v\n\x10\x08\x04\x12\x0csave_counter\n:\x128\n\x0eVARIABLE_VALUE\x12\x08Variable\x1a\x1cc/.ATTRIBUTES/VARIABLE_VALUE\n\x07\n\x05\x08\x05\x12\x01d\n\x0e\n\x05\x08\x06\x12\x01a\n\x05\x08\x07\x12\x01b\nI\x12G\n\x0eVARIABLE_VALUE\x12\x0csave_counter\x1a'save_counter/.ATTRIBUTES/VARIABLE_VALUE\nA\x12?\n\x0eVARIABLE_VALUE\x12\x08Variable\x1a#module/d/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x08Variable\x1a\x1ev/a/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x08Variable\x1a\x1ev/b/.ATTRIBUTES/VARIABLE_VALUE") (key='c/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=0.0)
لماذا يستخدم TF2 هذه الآلية؟
نظرًا لعدم وجود رسم بياني عالمي في TF2 ، فإن أسماء المتغيرات غير موثوقة ويمكن أن تكون غير متسقة بين البرامج. يشجع TF2 نهج النمذجة الكائنية حيث تكون المتغيرات مملوكة للطبقات ، والطبقات مملوكة لنموذج:
variable = tf.Variable(...)
layer.variable_name = variable
model.layer_name = layer
كيفية الحفاظ على توافق نقاط التفتيش أثناء ترحيل النموذج
تتمثل إحدى الخطوات المهمة في عملية الترحيل في التأكد من تهيئة جميع المتغيرات على القيم الصحيحة ، والتي بدورها تسمح لك بالتحقق من أن العمليات / الوظائف تقوم بالعمليات الحسابية الصحيحة. لتحقيق ذلك ، يجب مراعاة توافق نقاط التفتيش بين النماذج في مراحل الترحيل المختلفة. يجيب هذا القسم بشكل أساسي على السؤال ، كيف أستمر في استخدام نفس نقطة التفتيش أثناء تغيير النموذج .
فيما يلي ثلاث طرق للحفاظ على توافق نقاط التفتيش ، من أجل زيادة المرونة:
- النموذج له نفس أسماء المتغيرات كما كان من قبل.
- يحتوي النموذج على أسماء متغيرات مختلفة ، ويحتفظ بخريطة مهمة تعين أسماء المتغيرات في نقطة التحقق على الأسماء الجديدة.
- يحتوي النموذج على أسماء متغيرات مختلفة ، ويحافظ على كائن TF2 Checkpoint الذي يخزن جميع المتغيرات.
عندما تتطابق أسماء المتغيرات
العنوان الطويل: كيفية إعادة استخدام نقاط التحقق عندما تتطابق أسماء المتغيرات.
إجابة مختصرة: يمكنك تحميل نقطة التفتيش الموجودة مسبقًا إما باستخدام tf1.train.Saver
أو tf.train.Checkpoint
.
إذا كنت تستخدم tf.compat.v1.keras.utils.track_tf1_style_variables
، فستضمن أن أسماء متغيرات النموذج الخاصة بك هي نفسها كما كانت من قبل. يمكنك أيضًا التأكد يدويًا من تطابق أسماء المتغيرات.
عندما تتطابق أسماء المتغيرات في النماذج المرحّلة ، يمكنك استخدام tf.train.Checkpoint
أو tf.compat.v1.train.Saver
لتحميل نقطة التحقق. تتوافق كلتا واجهات برمجة التطبيقات مع الوضع الشغوف والرسم البياني ، لذا يمكنك استخدامها في أي مرحلة من مراحل الترحيل.
فيما يلي أمثلة لاستخدام نفس نقطة التفتيش مع نماذج مختلفة. أولاً ، احفظ نقطة تفتيش TF1 باستخدام tf1.train.Saver
:
with tf.Graph().as_default() as g:
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
c = tf1.get_variable('scoped/c', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
with tf1.Session() as sess:
saver = tf1.train.Saver()
sess.run(a.assign(1))
sess.run(b.assign(2))
sess.run(c.assign(3))
save_path = saver.save(sess, 'tf1-ckpt')
print_checkpoint(save_path)
Checkpoint at 'tf1-ckpt': (key='scoped/c', shape=[], dtype=float32, value=3.0) (key='a', shape=[], dtype=float32, value=1.0) (key='b', shape=[], dtype=float32, value=2.0)
يستخدم المثال أدناه tf.compat.v1.Saver
لتحميل نقطة التفتيش أثناء التواجد في الوضع الشغوف:
a = tf.Variable(0.0, name='a')
b = tf.Variable(0.0, name='b')
with tf.name_scope('scoped'):
c = tf.Variable(0.0, name='c')
# With the removal of collections in TF2, you must pass in the list of variables
# to the Saver object:
saver = tf1.train.Saver(var_list=[a, b, c])
saver.restore(sess=None, save_path=save_path)
print(f"loaded values of [a, b, c]: [{a.numpy()}, {b.numpy()}, {c.numpy()}]")
# Saving also works in eager (sess must be None).
path = saver.save(sess=None, save_path='tf1-ckpt-saved-in-eager')
print_checkpoint(path)
WARNING:tensorflow:Saver is deprecated, please switch to tf.train.Checkpoint or tf.keras.Model.save_weights for training checkpoints. When executing eagerly variables do not necessarily have unique names, and so the variable.name-based lookups Saver performs are error-prone. INFO:tensorflow:Restoring parameters from tf1-ckpt loaded values of [a, b, c]: [1.0, 2.0, 3.0] Checkpoint at 'tf1-ckpt-saved-in-eager': (key='scoped/c', shape=[], dtype=float32, value=3.0) (key='a', shape=[], dtype=float32, value=1.0) (key='b', shape=[], dtype=float32, value=2.0)
يقوم المقتطف التالي بتحميل نقطة التفتيش باستخدام TF2 API tf.train.Checkpoint
.
a = tf.Variable(0.0, name='a')
b = tf.Variable(0.0, name='b')
with tf.name_scope('scoped'):
c = tf.Variable(0.0, name='c')
# Without the name_scope, name="scoped/c" works too:
c_2 = tf.Variable(0.0, name='scoped/c')
print("Variable names: ")
print(f" a.name = {a.name}")
print(f" b.name = {b.name}")
print(f" c.name = {c.name}")
print(f" c_2.name = {c_2.name}")
# Restore the values with tf.train.Checkpoint
ckpt = tf.train.Checkpoint(variables=[a, b, c, c_2])
ckpt.restore(save_path)
print(f"loaded values of [a, b, c, c_2]: [{a.numpy()}, {b.numpy()}, {c.numpy()}, {c_2.numpy()}]")
Variable names: a.name = a:0 b.name = b:0 c.name = scoped/c:0 c_2.name = scoped/c:0 WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/training/tracking/util.py:1345: NameBasedSaverStatus.__init__ (from tensorflow.python.training.tracking.util) is deprecated and will be removed in a future version. Instructions for updating: Restoring a name-based tf.train.Saver checkpoint using the object-based restore API. This mode uses global names to match variables, and so is somewhat fragile. It also adds new restore ops to the graph each time it is called when graph building. Prefer re-encoding training checkpoints in the object-based format: run save() on the object-based saver (the same one this message is coming from) and use that checkpoint in the future. loaded values of [a, b, c, c_2]: [1.0, 2.0, 3.0, 3.0]
أسماء المتغيرات في TF2
- لا تزال جميع المتغيرات تحتوي على وسيطة
name
يمكنك تعيينها. - تأخذ نماذج Keras أيضًا وسيطة
name
حيث يتم تعيينها كبادئة لمتغيراتها. - يمكن استخدام وظيفة
v1.name_scope
لتعيين بادئات اسم المتغير. هذا يختلف كثيرًا عنtf.variable_scope
. إنه يؤثر فقط على الأسماء ، ولا يتتبع المتغيرات ويعيد استخدامها.
إن tf.compat.v1.keras.utils.track_tf1_style_variables
decorator هو عبارة عن رقاقة تساعدك في الحفاظ على الأسماء المتغيرة وتوافق نقاط تفتيش TF1 ، عن طريق الحفاظ على تسمية وإعادة استخدام دلالات tf.variable_scope
و tf.compat.v1.get_variable
دون تغيير. راجع دليل تعيين النموذج لمزيد من المعلومات.
ملاحظة 1: إذا كنت تستخدم الرقاقة ، فاستخدم TF2 APIs لتحميل نقاط التفتيش الخاصة بك (حتى عند استخدام نقاط تفتيش TF1 المدربة مسبقًا).
انظر قسم Checkpoint Keras .
ملاحظة 2: عند الترحيل إلى tf get_variable
tf.Variable
إذا كانت الطبقة أو الوحدة النمطية المزخرفة بالرقائق الخاصة بك تتكون من بعض المتغيرات (أو طبقات / نماذج Keras) التي تستخدم tf.Variable
بدلاً من tf.compat.v1.get_variable
ويتم إرفاقها كخصائص / تتبع بطريقة كائنية التوجه ، فقد يكون لها اختلاف دلالات التسمية المتغيرة في الرسوم البيانية TF1.x / الجلسات مقابل أثناء التنفيذ الشغوف.
باختصار ، قد لا تكون الأسماء كما تتوقعها عند التشغيل في TF2.
الحفاظ على خرائط المهام
تُستخدم خرائط المهام بشكل شائع لنقل الأوزان بين نماذج TF1 ، ويمكن أيضًا استخدامها أثناء ترحيل النموذج الخاص بك إذا تغيرت أسماء المتغيرات.
يمكنك استخدام هذه الخرائط مع tf.compat.v1.train.init_from_checkpoint
و tf.compat.v1.train.Saver
و tf.train.load_checkpoint
لتحميل الأوزان إلى النماذج التي ربما تغيرت فيها أسماء المتغيرات أو النطاق.
ستستخدم الأمثلة في هذا القسم نقطة تفتيش محفوظة مسبقًا:
print_checkpoint('tf1-ckpt')
Checkpoint at 'tf1-ckpt': (key='scoped/c', shape=[], dtype=float32, value=3.0) (key='a', shape=[], dtype=float32, value=1.0) (key='b', shape=[], dtype=float32, value=2.0)
تحميل مع init_from_checkpoint
يجب استدعاء tf1.train.init_from_checkpoint
أثناء التواجد في الرسم البياني / الجلسة ، لأنه يضع القيم في مُهيئ المتغير بدلاً من إنشاء مرجع تعيين.
يمكنك استخدام الوسيطة assignment_map
لتكوين كيفية تحميل المتغيرات. من الوثائق:
تدعم خريطة الواجب البنية التالية:
-
'checkpoint_scope_name/': 'scope_name/'
- سيتم تحميل جميع المتغيرات فيscope_name
الحالي منcheckpoint_scope_name
مع مطابقة أسماء الموتر. -
'checkpoint_scope_name/some_other_variable': 'scope_name/variable_name'
-scope_name/variable_name
variable_name منcheckpoint_scope_name/some_other_variable
. -
'scope_variable_name': variable
-tf.Variable
object with tensor 'domain_variable_name' من نقطة التفتيش. -
'scope_variable_name': list(variable)
- سيُهيئ قائمة المتغيرات المقسمة باستخدام "domain_variable_name" من نقطة التفتيش. -
'/': 'scope_name/'
- سيتم تحميل جميع المتغيرات فيscope_name
الحالي من جذر نقطة التحقق (على سبيل المثال ، لا يوجد نطاق).
# Restoring with tf1.train.init_from_checkpoint:
# A new model with a different scope for the variables.
with tf.Graph().as_default() as g:
with tf1.variable_scope('new_scope'):
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
c = tf1.get_variable('scoped/c', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
with tf1.Session() as sess:
# The assignment map will remap all variables in the checkpoint to the
# new scope:
tf1.train.init_from_checkpoint(
'tf1-ckpt',
assignment_map={'/': 'new_scope/'})
# `init_from_checkpoint` adds the initializers to these variables.
# Use `sess.run` to run these initializers.
sess.run(tf1.global_variables_initializer())
print("Restored [a, b, c]: ", sess.run([a, b, c]))
Restored [a, b, c]: [1.0, 2.0, 3.0]
التحميل باستخدام tf1.train.Saver
على عكس init_from_checkpoint
، يعمل tf.compat.v1.train.Saver
في كل من الوضع البياني والرسم البياني. تقبل الوسيطة var_list
اختياريًا ، إلا أنه يجب أن تعين أسماء المتغيرات إلى الكائن tf.Variable
.
# Restoring with tf1.train.Saver (works in both graph and eager):
# A new model with a different scope for the variables.
with tf1.variable_scope('new_scope'):
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
c = tf1.get_variable('scoped/c', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
# Initialize the saver with a dictionary with the original variable names:
saver = tf1.train.Saver({'a': a, 'b': b, 'scoped/c': c})
saver.restore(sess=None, save_path='tf1-ckpt')
print("Restored [a, b, c]: ", [a.numpy(), b.numpy(), c.numpy()])
WARNING:tensorflow:Saver is deprecated, please switch to tf.train.Checkpoint or tf.keras.Model.save_weights for training checkpoints. When executing eagerly variables do not necessarily have unique names, and so the variable.name-based lookups Saver performs are error-prone. INFO:tensorflow:Restoring parameters from tf1-ckpt Restored [a, b, c]: [1.0, 2.0, 3.0]
التحميل باستخدام tf.train.load_checkpoint
هذا الخيار مناسب لك إذا كنت بحاجة إلى تحكم دقيق في القيم المتغيرة. مرة أخرى ، يعمل هذا في كل من الوضعين البيانيين والشغوفين.
# Restoring with tf.train.load_checkpoint (works in both graph and eager):
# A new model with a different scope for the variables.
with tf.Graph().as_default() as g:
with tf1.variable_scope('new_scope'):
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
c = tf1.get_variable('scoped/c', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
with tf1.Session() as sess:
# It may be easier writing a loop if your model has a lot of variables.
reader = tf.train.load_checkpoint('tf1-ckpt')
sess.run(a.assign(reader.get_tensor('a')))
sess.run(b.assign(reader.get_tensor('b')))
sess.run(c.assign(reader.get_tensor('scoped/c')))
print("Restored [a, b, c]: ", sess.run([a, b, c]))
Restored [a, b, c]: [1.0, 2.0, 3.0]
الحفاظ على كائن TF2 Checkpoint
إذا كان المتغير وأسماء النطاق تتغير كثيرًا أثناء الترحيل ، فاستخدم tf.train.Checkpoint
و TF2 checkpoints. يستخدم TF2 بنية الكائن بدلاً من أسماء المتغيرات (مزيد من التفاصيل في التغييرات من TF1 إلى TF2 ).
باختصار ، عند إنشاء tf.train.Checkpoint
لحفظ نقاط التفتيش أو استعادتها ، تأكد من أنها تستخدم نفس الترتيب (للقوائم) والمفاتيح (للقواميس ووسيطات الكلمات الرئيسية لمهيئ Checkpoint
التحقق). بعض الأمثلة على توافق نقاط التفتيش:
ckpt = tf.train.Checkpoint(foo=[var_a, var_b])
# compatible with ckpt
tf.train.Checkpoint(foo=[var_a, var_b])
# not compatible with ckpt
tf.train.Checkpoint(foo=[var_b, var_a])
tf.train.Checkpoint(bar=[var_a, var_b])
توضح نماذج التعليمات البرمجية أدناه كيفية استخدام "نفس" tf.train.Checkpoint
لتحميل المتغيرات بأسماء مختلفة. أولاً ، احفظ نقطة تفتيش TF2:
with tf.Graph().as_default() as g:
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(1))
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(2))
with tf1.variable_scope('scoped'):
c = tf1.get_variable('c', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(3))
with tf1.Session() as sess:
sess.run(tf1.global_variables_initializer())
print("[a, b, c]: ", sess.run([a, b, c]))
# Save a TF2 checkpoint
ckpt = tf.train.Checkpoint(unscoped=[a, b], scoped=[c])
tf2_ckpt_path = ckpt.save('tf2-ckpt')
print_checkpoint(tf2_ckpt_path)
[a, b, c]: [1.0, 2.0, 3.0] Checkpoint at 'tf2-ckpt-1': (key='unscoped/1/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=2.0) (key='unscoped/0/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=1.0) (key='_CHECKPOINTABLE_OBJECT_GRAPH', shape=[], dtype=string, value=b"\n,\n\n\x08\x01\x12\x06scoped\n\x0c\x08\x02\x12\x08unscoped\n\x10\x08\x03\x12\x0csave_counter\n\x07\n\x05\x08\x04\x12\x010\n\x0e\n\x05\x08\x05\x12\x010\n\x05\x08\x06\x12\x011\nI\x12G\n\x0eVARIABLE_VALUE\x12\x0csave_counter\x1a'save_counter/.ATTRIBUTES/VARIABLE_VALUE\nA\x12?\n\x0eVARIABLE_VALUE\x12\x08scoped/c\x1a#scoped/0/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x01a\x1a%unscoped/0/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x01b\x1a%unscoped/1/.ATTRIBUTES/VARIABLE_VALUE") (key='scoped/0/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=3.0) (key='save_counter/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=int64, value=1)
يمكنك الاستمرار في استخدام tf.train.Checkpoint
حتى إذا تغيرت أسماء النطاق / المتغير:
with tf.Graph().as_default() as g:
a = tf1.get_variable('a_different_name', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
b = tf1.get_variable('b_different_name', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
with tf1.variable_scope('different_scope'):
c = tf1.get_variable('c', shape=[], dtype=tf.float32,
initializer=tf1.zeros_initializer())
with tf1.Session() as sess:
sess.run(tf1.global_variables_initializer())
print("Initialized [a, b, c]: ", sess.run([a, b, c]))
ckpt = tf.train.Checkpoint(unscoped=[a, b], scoped=[c])
# `assert_consumed` validates that all checkpoint objects are restored from
# the checkpoint. `run_restore_ops` is required when running in a TF1
# session.
ckpt.restore(tf2_ckpt_path).assert_consumed().run_restore_ops()
# Removing `assert_consumed` is fine if you want to skip the validation.
# ckpt.restore(tf2_ckpt_path).run_restore_ops()
print("Restored [a, b, c]: ", sess.run([a, b, c]))
Initialized [a, b, c]: [0.0, 0.0, 0.0] Restored [a, b, c]: [1.0, 2.0, 3.0]
وفي وضع حريص:
a = tf.Variable(0.)
b = tf.Variable(0.)
c = tf.Variable(0.)
print("Initialized [a, b, c]: ", [a.numpy(), b.numpy(), c.numpy()])
# The keys "scoped" and "unscoped" are no longer relevant, but are used to
# maintain compatibility with the saved checkpoints.
ckpt = tf.train.Checkpoint(unscoped=[a, b], scoped=[c])
ckpt.restore(tf2_ckpt_path).assert_consumed().run_restore_ops()
print("Restored [a, b, c]: ", [a.numpy(), b.numpy(), c.numpy()])
Initialized [a, b, c]: [0.0, 0.0, 0.0] Restored [a, b, c]: [1.0, 2.0, 3.0]
نقاط تفتيش TF2 في Estimator
تصف الأقسام أعلاه كيفية الحفاظ على توافق نقطة التفتيش أثناء ترحيل النموذج الخاص بك. تنطبق هذه المفاهيم أيضًا على نماذج Estimator ، على الرغم من اختلاف طريقة حفظ / تحميل نقطة التحقق اختلافًا طفيفًا. أثناء ترحيل نموذج المقدر الخاص بك لاستخدام واجهات برمجة تطبيقات TF2 ، قد ترغب في التبديل من نقاط فحص TF1 إلى TF2 بينما لا يزال النموذج يستخدم المقدر . يوضح هذا القسم كيفية القيام بذلك.
tf.estimator.Estimator
و MonitoredSession
لهما آلية حفظ تسمى scaffold
، وهي كائن tf.compat.v1.train.Scaffold
. يمكن أن تحتوي Scaffold
على tf1.train.Saver
أو tf.train.Checkpoint
، والتي تمكن Estimator
والجلسة MonitoredSession
من حفظ نقاط تفتيش TF1 أو TF2.
# A model_fn that saves a TF1 checkpoint
def model_fn_tf1_ckpt(features, labels, mode):
# This model adds 2 to the variable `v` in every train step.
train_step = tf1.train.get_or_create_global_step()
v = tf1.get_variable('var', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
return tf.estimator.EstimatorSpec(
mode,
predictions=v,
train_op=tf.group(v.assign_add(2), train_step.assign_add(1)),
loss=tf.constant(1.),
scaffold=None
)
!rm -rf est-tf1
est = tf.estimator.Estimator(model_fn_tf1_ckpt, 'est-tf1')
def train_fn():
return tf.data.Dataset.from_tensor_slices(([1,2,3], [4,5,6]))
est.train(train_fn, steps=1)
latest_checkpoint = tf.train.latest_checkpoint('est-tf1')
print_checkpoint(latest_checkpoint)
INFO:tensorflow:Using default config. INFO:tensorflow:Using config: {'_model_dir': 'est-tf1', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': allow_soft_placement: true graph_options { rewrite_options { meta_optimizer_iterations: ONE } } , '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_device_fn': None, '_protocol': None, '_eval_distribute': None, '_experimental_distribute': None, '_experimental_max_worker_delay_secs': None, '_session_creation_timeout_secs': 7200, '_checkpoint_save_graph_def': True, '_service': None, '_cluster_spec': ClusterSpec({}), '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1} WARNING:tensorflow:From /tmpfs/src/tf_docs_env/lib/python3.7/site-packages/tensorflow/python/training/training_util.py:401: Variable.initialized_value (from tensorflow.python.ops.variables) is deprecated and will be removed in a future version. Instructions for updating: Use Variable.read_value. Variables in 2.X are initialized automatically both in eager and graph (inside tf.defun) contexts. INFO:tensorflow:Calling model_fn. INFO:tensorflow:Done calling model_fn. INFO:tensorflow:Create CheckpointSaverHook. INFO:tensorflow:Graph was finalized. INFO:tensorflow:Running local_init_op. INFO:tensorflow:Done running local_init_op. INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 0... INFO:tensorflow:Saving checkpoints for 0 into est-tf1/model.ckpt. INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 0... INFO:tensorflow:loss = 1.0, step = 0 INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 1... INFO:tensorflow:Saving checkpoints for 1 into est-tf1/model.ckpt. INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 1... INFO:tensorflow:Loss for final step: 1.0. Checkpoint at 'est-tf1/model.ckpt-1': (key='var', shape=[], dtype=float32, value=2.0) (key='global_step', shape=[], dtype=int64, value=1)
# A model_fn that saves a TF2 checkpoint
def model_fn_tf2_ckpt(features, labels, mode):
# This model adds 2 to the variable `v` in every train step.
train_step = tf1.train.get_or_create_global_step()
v = tf1.get_variable('var', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
ckpt = tf.train.Checkpoint(var_list={'var': v}, step=train_step)
return tf.estimator.EstimatorSpec(
mode,
predictions=v,
train_op=tf.group(v.assign_add(2), train_step.assign_add(1)),
loss=tf.constant(1.),
scaffold=tf1.train.Scaffold(saver=ckpt)
)
!rm -rf est-tf2
est = tf.estimator.Estimator(model_fn_tf2_ckpt, 'est-tf2',
warm_start_from='est-tf1')
def train_fn():
return tf.data.Dataset.from_tensor_slices(([1,2,3], [4,5,6]))
est.train(train_fn, steps=1)
latest_checkpoint = tf.train.latest_checkpoint('est-tf2')
print_checkpoint(latest_checkpoint)
assert est.get_variable_value('var_list/var/.ATTRIBUTES/VARIABLE_VALUE') == 4
INFO:tensorflow:Using default config. INFO:tensorflow:Using config: {'_model_dir': 'est-tf2', '_tf_random_seed': None, '_save_summary_steps': 100, '_save_checkpoints_steps': None, '_save_checkpoints_secs': 600, '_session_config': allow_soft_placement: true graph_options { rewrite_options { meta_optimizer_iterations: ONE } } , '_keep_checkpoint_max': 5, '_keep_checkpoint_every_n_hours': 10000, '_log_step_count_steps': 100, '_train_distribute': None, '_device_fn': None, '_protocol': None, '_eval_distribute': None, '_experimental_distribute': None, '_experimental_max_worker_delay_secs': None, '_session_creation_timeout_secs': 7200, '_checkpoint_save_graph_def': True, '_service': None, '_cluster_spec': ClusterSpec({}), '_task_type': 'worker', '_task_id': 0, '_global_id_in_cluster': 0, '_master': '', '_evaluation_master': '', '_is_chief': True, '_num_ps_replicas': 0, '_num_worker_replicas': 1} INFO:tensorflow:Calling model_fn. INFO:tensorflow:Done calling model_fn. INFO:tensorflow:Warm-starting with WarmStartSettings: WarmStartSettings(ckpt_to_initialize_from='est-tf1', vars_to_warm_start='.*', var_name_to_vocab_info={}, var_name_to_prev_var_name={}) INFO:tensorflow:Warm-starting from: est-tf1 INFO:tensorflow:Warm-starting variables only in TRAINABLE_VARIABLES. INFO:tensorflow:Warm-started 1 variables. INFO:tensorflow:Create CheckpointSaverHook. INFO:tensorflow:Graph was finalized. INFO:tensorflow:Running local_init_op. INFO:tensorflow:Done running local_init_op. INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 0... INFO:tensorflow:Saving checkpoints for 0 into est-tf2/model.ckpt. INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 0... INFO:tensorflow:loss = 1.0, step = 0 INFO:tensorflow:Calling checkpoint listeners before saving checkpoint 1... INFO:tensorflow:Saving checkpoints for 1 into est-tf2/model.ckpt. INFO:tensorflow:Calling checkpoint listeners after saving checkpoint 1... INFO:tensorflow:Loss for final step: 1.0. Checkpoint at 'est-tf2/model.ckpt-1': (key='var_list/var/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=4.0) (key='_CHECKPOINTABLE_OBJECT_GRAPH', shape=[], dtype=string, value=b"\n\x18\n\x08\x08\x01\x12\x04step\n\x0c\x08\x02\x12\x08var_list\n@\x12>\n\x0eVARIABLE_VALUE\x12\x0bglobal_step\x1a\x1fstep/.ATTRIBUTES/VARIABLE_VALUE\n\t\n\x07\x08\x03\x12\x03var\n@\x12>\n\x0eVARIABLE_VALUE\x12\x03var\x1a'var_list/var/.ATTRIBUTES/VARIABLE_VALUE") (key='step/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=int64, value=1)
يجب أن تكون القيمة النهائية لـ v
هي 16
، بعد أن تكون البداية دافئة من est-tf1
، ثم تدرب على 5 خطوات إضافية. قيمة خطوة القطار لا تنتقل من نقطة تفتيش warm_start
.
نقطة تفتيش كيراس
لا تزال النماذج التي تم إنشاؤها باستخدام Keras تستخدم tf1.train.Saver
و tf.train.Checkpoint
لتحميل الأوزان الموجودة مسبقًا. عندما يتم ترحيل نموذجك بالكامل ، قم بالتبديل إلى استخدام model.save_weights
و model.load_weights
، خاصة إذا كنت تستخدم رد ModelCheckpoint
عند التدريب.
بعض الأشياء التي يجب أن تعرفها عن نقاط التفتيش وكيراس:
التهيئة مقابل البناء
يجب أن تمر نماذج وطبقات Keras بخطوتين قبل إنشائها بالكامل. الأول هو تهيئة كائن Python: layer = tf.keras.layers.Dense(x)
. الثانية هي خطوة البناء ، حيث يتم إنشاء معظم الأوزان فعليًا: layer.build(input_shape)
. يمكنك أيضًا بناء نموذج عن طريق الاتصال به أو تشغيل train
واحد أو eval
أو predict
خطوة (المرة الأولى فقط).
إذا وجدت هذا model.load_weights(path).assert_consumed()
يثير خطأ ، فمن المحتمل أن النموذج / الطبقات لم يتم بناؤها.
يستخدم Keras نقاط تفتيش TF2
tf.train.Checkpoint(model).write
. الكتابة تعادل model.save_weights
. نفس الشيء مع tf.train.Checkpoint(model).read
.read و model.load_weights
. لاحظ أن Checkpoint(model) != Checkpoint(model=model)
.
تعمل نقاط تفتيش TF2 مع خطوة build()
الخاصة بـ Keras
يحتوي tf.train.Checkpoint.restore
على آلية تسمى الاستعادة المؤجلة والتي تسمح tf.Module
و Keras بتخزين القيم المتغيرة إذا لم يتم إنشاء المتغير بعد. هذا يسمح للنماذج المهيأة بتحميل الأوزان والبناء بعد ذلك.
m = YourKerasModel()
status = m.load_weights(path)
# This call builds the model. The variables are created with the restored
# values.
m.predict(inputs)
status.assert_consumed()
بسبب هذه الآلية ، نوصي بشدة باستخدام واجهات برمجة تطبيقات تحميل نقاط تفتيش TF2 مع نماذج Keras (حتى عند استعادة نقاط فحص TF1 الموجودة مسبقًا في حزم تعيين النموذج ). شاهد المزيد في دليل نقاط التفتيش .
مقتطفات الشفرة
تُظهر المقتطفات أدناه توافق إصدار TF1 / TF2 في واجهات برمجة تطبيقات حفظ نقاط التفتيش.
احفظ نقطة تفتيش TF1 في TF2
a = tf.Variable(1.0, name='a')
b = tf.Variable(2.0, name='b')
with tf.name_scope('scoped'):
c = tf.Variable(3.0, name='c')
saver = tf1.train.Saver(var_list=[a, b, c])
path = saver.save(sess=None, save_path='tf1-ckpt-saved-in-eager')
print_checkpoint(path)
WARNING:tensorflow:Saver is deprecated, please switch to tf.train.Checkpoint or tf.keras.Model.save_weights for training checkpoints. When executing eagerly variables do not necessarily have unique names, and so the variable.name-based lookups Saver performs are error-prone. Checkpoint at 'tf1-ckpt-saved-in-eager': (key='scoped/c', shape=[], dtype=float32, value=3.0) (key='a', shape=[], dtype=float32, value=1.0) (key='b', shape=[], dtype=float32, value=2.0)
قم بتحميل نقطة تفتيش TF1 في TF2
a = tf.Variable(0., name='a')
b = tf.Variable(0., name='b')
with tf.name_scope('scoped'):
c = tf.Variable(0., name='c')
print("Initialized [a, b, c]: ", [a.numpy(), b.numpy(), c.numpy()])
saver = tf1.train.Saver(var_list=[a, b, c])
saver.restore(sess=None, save_path='tf1-ckpt-saved-in-eager')
print("Restored [a, b, c]: ", [a.numpy(), b.numpy(), c.numpy()])
Initialized [a, b, c]: [0.0, 0.0, 0.0] WARNING:tensorflow:Saver is deprecated, please switch to tf.train.Checkpoint or tf.keras.Model.save_weights for training checkpoints. When executing eagerly variables do not necessarily have unique names, and so the variable.name-based lookups Saver performs are error-prone. INFO:tensorflow:Restoring parameters from tf1-ckpt-saved-in-eager Restored [a, b, c]: [1.0, 2.0, 3.0]
احفظ نقطة تفتيش TF2 في TF1
with tf.Graph().as_default() as g:
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(1))
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(2))
with tf1.variable_scope('scoped'):
c = tf1.get_variable('c', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(3))
with tf1.Session() as sess:
sess.run(tf1.global_variables_initializer())
ckpt = tf.train.Checkpoint(
var_list={v.name.split(':')[0]: v for v in tf1.global_variables()})
tf2_in_tf1_path = ckpt.save('tf2-ckpt-saved-in-session')
print_checkpoint(tf2_in_tf1_path)
Checkpoint at 'tf2-ckpt-saved-in-session-1': (key='var_list/scoped.Sc/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=3.0) (key='var_list/b/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=2.0) (key='var_list/a/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=1.0) (key='_CHECKPOINTABLE_OBJECT_GRAPH', shape=[], dtype=string, value=b"\n \n\x0c\x08\x01\x12\x08var_list\n\x10\x08\x02\x12\x0csave_counter\n\x1c\n\x05\x08\x03\x12\x01a\n\x05\x08\x04\x12\x01b\n\x0c\x08\x05\x12\x08scoped/c\nI\x12G\n\x0eVARIABLE_VALUE\x12\x0csave_counter\x1a'save_counter/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x01a\x1a%var_list/a/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x01b\x1a%var_list/b/.ATTRIBUTES/VARIABLE_VALUE\nK\x12I\n\x0eVARIABLE_VALUE\x12\x08scoped/c\x1a-var_list/scoped.Sc/.ATTRIBUTES/VARIABLE_VALUE") (key='save_counter/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=int64, value=1)
قم بتحميل نقطة تفتيش TF2 في TF1
with tf.Graph().as_default() as g:
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
with tf1.variable_scope('scoped'):
c = tf1.get_variable('c', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
with tf1.Session() as sess:
sess.run(tf1.global_variables_initializer())
print("Initialized [a, b, c]: ", sess.run([a, b, c]))
ckpt = tf.train.Checkpoint(
var_list={v.name.split(':')[0]: v for v in tf1.global_variables()})
ckpt.restore('tf2-ckpt-saved-in-session-1').run_restore_ops()
print("Restored [a, b, c]: ", sess.run([a, b, c]))
Initialized [a, b, c]: [0.0, 0.0, 0.0] Restored [a, b, c]: [1.0, 2.0, 3.0]
تحويل نقطة التفتيش
يمكنك تحويل نقاط التفتيش بين TF1 و TF2 عن طريق تحميل وإعادة حفظ نقاط التفتيش. البديل هو tf.train.load_checkpoint
، كما هو موضح في الكود أدناه.
قم بتحويل نقطة تفتيش TF1 إلى TF2
def convert_tf1_to_tf2(checkpoint_path, output_prefix):
"""Converts a TF1 checkpoint to TF2.
To load the converted checkpoint, you must build a dictionary that maps
variable names to variable objects.
```
ckpt = tf.train.Checkpoint(vars={name: variable})
ckpt.restore(converted_ckpt_path)
```
Args:
checkpoint_path: Path to the TF1 checkpoint.
output_prefix: Path prefix to the converted checkpoint.
Returns:
Path to the converted checkpoint.
"""
vars = {}
reader = tf.train.load_checkpoint(checkpoint_path)
dtypes = reader.get_variable_to_dtype_map()
for key in dtypes.keys():
vars[key] = tf.Variable(reader.get_tensor(key))
return tf.train.Checkpoint(vars=vars).save(output_prefix)
```
Convert the checkpoint saved in the snippet `Save a TF1 checkpoint in TF2`:
```python
# Make sure to run the snippet in `Save a TF1 checkpoint in TF2`.
print_checkpoint('tf1-ckpt-saved-in-eager')
converted_path = convert_tf1_to_tf2('tf1-ckpt-saved-in-eager',
'converted-tf1-to-tf2')
print("\n[Converted]")
print_checkpoint(converted_path)
# Try loading the converted checkpoint.
a = tf.Variable(0.)
b = tf.Variable(0.)
c = tf.Variable(0.)
ckpt = tf.train.Checkpoint(vars={'a': a, 'b': b, 'scoped/c': c})
ckpt.restore(converted_path).assert_consumed()
print("\nRestored [a, b, c]: ", [a.numpy(), b.numpy(), c.numpy()])
Checkpoint at 'tf1-ckpt-saved-in-eager': (key='scoped/c', shape=[], dtype=float32, value=3.0) (key='a', shape=[], dtype=float32, value=1.0) (key='b', shape=[], dtype=float32, value=2.0) [Converted] Checkpoint at 'converted-tf1-to-tf2-1': (key='vars/scoped.Sc/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=3.0) (key='vars/b/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=2.0) (key='vars/a/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=1.0) (key='_CHECKPOINTABLE_OBJECT_GRAPH', shape=[], dtype=string, value=b"\n\x1c\n\x08\x08\x01\x12\x04vars\n\x10\x08\x02\x12\x0csave_counter\n\x1c\n\x0c\x08\x03\x12\x08scoped/c\n\x05\x08\x04\x12\x01a\n\x05\x08\x05\x12\x01b\nI\x12G\n\x0eVARIABLE_VALUE\x12\x0csave_counter\x1a'save_counter/.ATTRIBUTES/VARIABLE_VALUE\nG\x12E\n\x0eVARIABLE_VALUE\x12\x08Variable\x1a)vars/scoped.Sc/.ATTRIBUTES/VARIABLE_VALUE\n?\x12=\n\x0eVARIABLE_VALUE\x12\x08Variable\x1a!vars/a/.ATTRIBUTES/VARIABLE_VALUE\n?\x12=\n\x0eVARIABLE_VALUE\x12\x08Variable\x1a!vars/b/.ATTRIBUTES/VARIABLE_VALUE") (key='save_counter/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=int64, value=1) Restored [a, b, c]: [1.0, 2.0, 3.0]
قم بتحويل نقطة تفتيش TF2 إلى TF1
def convert_tf2_to_tf1(checkpoint_path, output_prefix):
"""Converts a TF2 checkpoint to TF1.
The checkpoint must be saved using a
`tf.train.Checkpoint(var_list={name: variable})`
To load the converted checkpoint with `tf.compat.v1.Saver`:
```
saver = tf.compat.v1.train.Saver(var_list={name: variable})
# An alternative, if the variable names match the keys:
saver = tf.compat.v1.train.Saver(var_list=[variables])
saver.restore(sess, output_path)
```
"""
vars = {}
reader = tf.train.load_checkpoint(checkpoint_path)
dtypes = reader.get_variable_to_dtype_map()
for key in dtypes.keys():
# Get the "name" from the
if key.startswith('var_list/'):
var_name = key.split('/')[1]
# TF2 checkpoint keys use '/', so if they appear in the user-defined name,
# they are escaped to '.S'.
var_name = var_name.replace('.S', '/')
vars[var_name] = tf.Variable(reader.get_tensor(key))
return tf1.train.Saver(var_list=vars).save(sess=None, save_path=output_prefix)
```
Convert the checkpoint saved in the snippet `Save a TF2 checkpoint in TF1`:
```python
# Make sure to run the snippet in `Save a TF2 checkpoint in TF1`.
print_checkpoint('tf2-ckpt-saved-in-session-1')
converted_path = convert_tf2_to_tf1('tf2-ckpt-saved-in-session-1',
'converted-tf2-to-tf1')
print("\n[Converted]")
print_checkpoint(converted_path)
# Try loading the converted checkpoint.
with tf.Graph().as_default() as g:
a = tf1.get_variable('a', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
b = tf1.get_variable('b', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
with tf1.variable_scope('scoped'):
c = tf1.get_variable('c', shape=[], dtype=tf.float32,
initializer=tf1.constant_initializer(0))
with tf1.Session() as sess:
saver = tf1.train.Saver([a, b, c])
saver.restore(sess, converted_path)
print("\nRestored [a, b, c]: ", sess.run([a, b, c]))
Checkpoint at 'tf2-ckpt-saved-in-session-1': (key='var_list/scoped.Sc/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=3.0) (key='var_list/b/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=2.0) (key='var_list/a/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=float32, value=1.0) (key='_CHECKPOINTABLE_OBJECT_GRAPH', shape=[], dtype=string, value=b"\n \n\x0c\x08\x01\x12\x08var_list\n\x10\x08\x02\x12\x0csave_counter\n\x1c\n\x05\x08\x03\x12\x01a\n\x05\x08\x04\x12\x01b\n\x0c\x08\x05\x12\x08scoped/c\nI\x12G\n\x0eVARIABLE_VALUE\x12\x0csave_counter\x1a'save_counter/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x01a\x1a%var_list/a/.ATTRIBUTES/VARIABLE_VALUE\n<\x12:\n\x0eVARIABLE_VALUE\x12\x01b\x1a%var_list/b/.ATTRIBUTES/VARIABLE_VALUE\nK\x12I\n\x0eVARIABLE_VALUE\x12\x08scoped/c\x1a-var_list/scoped.Sc/.ATTRIBUTES/VARIABLE_VALUE") (key='save_counter/.ATTRIBUTES/VARIABLE_VALUE', shape=[], dtype=int64, value=1) WARNING:tensorflow:Saver is deprecated, please switch to tf.train.Checkpoint or tf.keras.Model.save_weights for training checkpoints. When executing eagerly variables do not necessarily have unique names, and so the variable.name-based lookups Saver performs are error-prone. [Converted] Checkpoint at 'converted-tf2-to-tf1': (key='scoped/c', shape=[], dtype=float32, value=3.0) (key='a', shape=[], dtype=float32, value=1.0) (key='b', shape=[], dtype=float32, value=2.0) INFO:tensorflow:Restoring parameters from converted-tf2-to-tf1 Restored [a, b, c]: [1.0, 2.0, 3.0]