Varsayılan olarak run
API, sağladığınız küme yapılandırmasına dayalı olarak model kodunuzu bir TensorFlow dağıtım stratejisine sarmalamayı üstlenir.
Dağıtım yok
CPU şefi yapılandırması ve ek çalışan yok
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])
OneDeviceStrategy
Başta 1 GPU (varsayılanı AcceleratorType.NVIDIA_TESLA_T4
) ve ek çalışan yoktur.
tfc.run(entry_point='mnist_example.py')
MirroredStrategy
Birden fazla GPU ile ana yapılandırma ( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])
MultiWorkerMirroredStrategy
1 GPU ve her biri 8 GPU'lu 2 çalışandan oluşan ana yapılandırma ( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
worker_count=2,
worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])
TPUStrategy
1 CPU ve TPU'lu 1 çalışan ile şef yapılandırması.
tfc.run(entry_point="mnist_example.py",
chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
worker_count=1,
worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])
TensorFlow Cloud ile TPUStrategy'nin yalnızca TF sürüm 2.1 ile çalıştığını lütfen unutmayın; çünkü bu , AI Platform cloud TPU tarafından desteklenen en son sürümdür.
Özel dağıtım stratejisi
Model kodunuzda bir dağıtım stratejisi belirlemeye özen göstermek istiyorsanız ve bir strateji oluşturmak için API'nin run
istemiyorsanız, distribution_stategy
None
olarak ayarlayın. Örneğin, strategy.experimental_distribute_dataset
kullandığınızda bu gerekli olacaktır.
tfc.run(entry_point='mnist_example.py',
distribution_strategy=None,
worker_count=2)