افتراضيًا، يعتني run
API بتغليف كود النموذج الخاص بك في إستراتيجية توزيع TensorFlow استنادًا إلى تكوين المجموعة الذي قدمته.
لا التوزيع
تكوين رئيس وحدة المعالجة المركزية ولا يوجد عمال إضافيون
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])
OneDeviceStrategy
1 وحدة معالجة رسومات (GPU) رئيسية (الإعداد الافتراضي هو AcceleratorType.NVIDIA_TESLA_T4
) ولا يوجد عمال إضافيون.
tfc.run(entry_point='mnist_example.py')
MirroredStrategy
التكوين الرئيسي مع وحدات معالجة الرسومات المتعددة ( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])
MultiWorkerMirroredStrategy
تكوين رئيسي مع وحدة معالجة رسومات واحدة وعاملين لكل منهما 8 وحدات معالجة رسومات ( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
worker_count=2,
worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])
TPUStrategy
التكوين الرئيسي مع وحدة معالجة مركزية واحدة وعامل واحد مزود بـ TPU.
tfc.run(entry_point="mnist_example.py",
chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
worker_count=1,
worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])
يرجى ملاحظة أن استراتيجية TPU مع TensorFlow Cloud تعمل فقط مع الإصدار 2.1 من TF حيث أن هذا هو الإصدار الأحدث المدعوم من AI Platform cloud TPU
استراتيجية التوزيع المخصصة
إذا كنت ترغب في الاهتمام بتحديد إستراتيجية توزيع في كود النموذج الخاص بك ولا تريد run
API لإنشاء إستراتيجية، فقم بتعيين distribution_stategy
على أنه None
. سيكون هذا مطلوبًا، على سبيل المثال، عند استخدام strategy.experimental_distribute_dataset
.
tfc.run(entry_point='mnist_example.py',
distribution_strategy=None,
worker_count=2)