클러스터 및 분산 전략 구성

기본적으로 run API는 제공된 클러스터 구성을 기반으로 TensorFlow 배포 전략에서 모델 코드를 래핑합니다.

배포 없음

CPU 최고 구성 및 추가 작업자 없음

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])

OneDeviceStrategy

수석 GPU 1개(기본값은 AcceleratorType.NVIDIA_TESLA_T4 )이며 추가 작업자는 없습니다.

tfc.run(entry_point='mnist_example.py')

MirroredStrategy

여러 GPU를 사용한 주요 구성( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])

MultiWorkerMirroredStrategy

GPU 1개와 각각 GPU 8개를 갖춘 작업자 2개가 포함된 주요 구성( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
        worker_count=2,
        worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])

TPUStrategy

CPU 1개와 TPU를 사용하는 작업자 1개가 포함된 주요 구성입니다.

tfc.run(entry_point="mnist_example.py",
        chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
        worker_count=1,
        worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])

TensorFlow Cloud를 사용한 TPUStrategy는 AI Platform 클라우드 TPU 에서 지원하는 최신 버전인 TF 버전 2.1에서만 작동합니다.

맞춤형 배포 전략

모델 코드에서 배포 전략을 지정하고 API를 run 전략을 생성하지 않으려면 distribution_stategy None 으로 설정하세요. 예를 들어 strategy.experimental_distribute_dataset 사용하는 경우 이는 필수입니다.

tfc.run(entry_point='mnist_example.py',
        distribution_strategy=None,
        worker_count=2)