क्लस्टर और वितरण रणनीति विन्यास

डिफ़ॉल्ट रूप से, run एपीआई आपके द्वारा प्रदान किए गए क्लस्टर कॉन्फ़िगरेशन के आधार पर आपके मॉडल कोड को TensorFlow वितरण रणनीति में लपेटने का ख्याल रखता है।

कोई वितरण नहीं

सीपीयू प्रमुख कॉन्फिगरेशन और कोई अतिरिक्त कर्मचारी नहीं

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])

OneDeviceStrategy

1 जीपीयू ऑन चीफ (डिफ़ॉल्ट रूप से AcceleratorType.NVIDIA_TESLA_T4 ) और कोई अतिरिक्त कर्मचारी नहीं।

tfc.run(entry_point='mnist_example.py')

MirroredStrategy

एकाधिक GPU ( AcceleratorType.NVIDIA_TESLA_V100 ) के साथ मुख्य कॉन्फ़िगरेशन।

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])

MultiWorkerMirroredStrategy

1 जीपीयू और 8 जीपीयू ( AcceleratorType.NVIDIA_TESLA_V100 ) वाले प्रत्येक 2 कर्मचारियों के साथ मुख्य कॉन्फिगरेशन।

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
        worker_count=2,
        worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])

TPUStrategy

1 सीपीयू के साथ मुख्य कॉन्फिगरेशन और टीपीयू के साथ 1 वर्कर।

tfc.run(entry_point="mnist_example.py",
        chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
        worker_count=1,
        worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])

कृपया ध्यान दें कि TensorFlow Cloud के साथ TPUStrategy केवल TF संस्करण 2.1 के साथ काम करती है क्योंकि यह AI प्लेटफ़ॉर्म क्लाउड TPU द्वारा समर्थित नवीनतम संस्करण है।

कस्टम वितरण रणनीति

यदि आप अपने मॉडल कोड में वितरण रणनीति निर्दिष्ट करने का ध्यान रखना चाहते हैं और रणनीति बनाने के लिए एपीआई नहीं run चाहते हैं, तो distribution_stategy None के रूप में सेट करें। उदाहरण के लिए, जब आप strategy.experimental_distribute_dataset का उपयोग कर रहे हों तो इसकी आवश्यकता होगी।

tfc.run(entry_point='mnist_example.py',
        distribution_strategy=None,
        worker_count=2)