تكوين استراتيجية الكتلة والتوزيع

افتراضيًا، يعتني run API بتغليف كود النموذج الخاص بك في إستراتيجية توزيع TensorFlow استنادًا إلى تكوين المجموعة الذي قدمته.

لا التوزيع

تكوين رئيس وحدة المعالجة المركزية ولا يوجد عمال إضافيون

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])

OneDeviceStrategy

1 وحدة معالجة رسومات (GPU) رئيسية (الإعداد الافتراضي هو AcceleratorType.NVIDIA_TESLA_T4 ) ولا يوجد عمال إضافيون.

tfc.run(entry_point='mnist_example.py')

MirroredStrategy

التكوين الرئيسي مع وحدات معالجة الرسومات المتعددة ( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])

MultiWorkerMirroredStrategy

تكوين رئيسي مع وحدة معالجة رسومات واحدة وعاملين لكل منهما 8 وحدات معالجة رسومات ( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
        worker_count=2,
        worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])

TPUStrategy

التكوين الرئيسي مع وحدة معالجة مركزية واحدة وعامل واحد مزود بـ TPU.

tfc.run(entry_point="mnist_example.py",
        chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
        worker_count=1,
        worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])

يرجى ملاحظة أن استراتيجية TPU مع TensorFlow Cloud تعمل فقط مع الإصدار 2.1 من TF حيث أن هذا هو الإصدار الأحدث المدعوم من AI Platform cloud TPU

استراتيجية التوزيع المخصصة

إذا كنت ترغب في الاهتمام بتحديد إستراتيجية توزيع في كود النموذج الخاص بك ولا تريد run API لإنشاء إستراتيجية، فقم بتعيين distribution_stategy على أنه None . سيكون هذا مطلوبًا، على سبيل المثال، عند استخدام strategy.experimental_distribute_dataset .

tfc.run(entry_point='mnist_example.py',
        distribution_strategy=None,
        worker_count=2)