Küme ve dağıtım stratejisi yapılandırması

Varsayılan olarak run API, sağladığınız küme yapılandırmasına dayalı olarak model kodunuzu bir TensorFlow dağıtım stratejisine sarmalamayı üstlenir.

Dağıtım yok

CPU şefi yapılandırması ve ek çalışan yok

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])

OneDeviceStrategy

Başta 1 GPU (varsayılanı AcceleratorType.NVIDIA_TESLA_T4 ) ve ek çalışan yoktur.

tfc.run(entry_point='mnist_example.py')

MirroredStrategy

Birden fazla GPU ile ana yapılandırma ( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])

MultiWorkerMirroredStrategy

1 GPU ve her biri 8 GPU'lu 2 çalışandan oluşan ana yapılandırma ( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
        worker_count=2,
        worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])

TPUStrategy

1 CPU ve TPU'lu 1 çalışan ile şef yapılandırması.

tfc.run(entry_point="mnist_example.py",
        chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
        worker_count=1,
        worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])

TensorFlow Cloud ile TPUStrategy'nin yalnızca TF sürüm 2.1 ile çalıştığını lütfen unutmayın; çünkü bu , AI Platform cloud TPU tarafından desteklenen en son sürümdür.

Özel dağıtım stratejisi

Model kodunuzda bir dağıtım stratejisi belirlemeye özen göstermek istiyorsanız ve bir strateji oluşturmak için API'nin run istemiyorsanız, distribution_stategy None olarak ayarlayın. Örneğin, strategy.experimental_distribute_dataset kullandığınızda bu gerekli olacaktır.

tfc.run(entry_point='mnist_example.py',
        distribution_strategy=None,
        worker_count=2)