डिफ़ॉल्ट रूप से, run
एपीआई आपके द्वारा प्रदान किए गए क्लस्टर कॉन्फ़िगरेशन के आधार पर आपके मॉडल कोड को TensorFlow वितरण रणनीति में लपेटने का ख्याल रखता है।
कोई वितरण नहीं
सीपीयू प्रमुख कॉन्फिगरेशन और कोई अतिरिक्त कर्मचारी नहीं
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])
OneDeviceStrategy
1 जीपीयू ऑन चीफ (डिफ़ॉल्ट रूप से AcceleratorType.NVIDIA_TESLA_T4
) और कोई अतिरिक्त कर्मचारी नहीं।
tfc.run(entry_point='mnist_example.py')
MirroredStrategy
एकाधिक GPU ( AcceleratorType.NVIDIA_TESLA_V100
) के साथ मुख्य कॉन्फ़िगरेशन।
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])
MultiWorkerMirroredStrategy
1 जीपीयू और 8 जीपीयू ( AcceleratorType.NVIDIA_TESLA_V100
) वाले प्रत्येक 2 कर्मचारियों के साथ मुख्य कॉन्फिगरेशन।
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
worker_count=2,
worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])
TPUStrategy
1 सीपीयू के साथ मुख्य कॉन्फिगरेशन और टीपीयू के साथ 1 वर्कर।
tfc.run(entry_point="mnist_example.py",
chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
worker_count=1,
worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])
कृपया ध्यान दें कि TensorFlow Cloud के साथ TPUStrategy केवल TF संस्करण 2.1 के साथ काम करती है क्योंकि यह AI प्लेटफ़ॉर्म क्लाउड TPU द्वारा समर्थित नवीनतम संस्करण है।
कस्टम वितरण रणनीति
यदि आप अपने मॉडल कोड में वितरण रणनीति निर्दिष्ट करने का ध्यान रखना चाहते हैं और रणनीति बनाने के लिए एपीआई नहीं run
चाहते हैं, तो distribution_stategy
None
के रूप में सेट करें। उदाहरण के लिए, जब आप strategy.experimental_distribute_dataset
का उपयोग कर रहे हों तो इसकी आवश्यकता होगी।
tfc.run(entry_point='mnist_example.py',
distribution_strategy=None,
worker_count=2)