기본적으로 run
API는 제공된 클러스터 구성을 기반으로 TensorFlow 배포 전략에서 모델 코드를 래핑합니다.
배포 없음
CPU 최고 구성 및 추가 작업자 없음
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])
OneDeviceStrategy
수석 GPU 1개(기본값은 AcceleratorType.NVIDIA_TESLA_T4
)이며 추가 작업자는 없습니다.
tfc.run(entry_point='mnist_example.py')
MirroredStrategy
여러 GPU를 사용한 주요 구성( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])
MultiWorkerMirroredStrategy
GPU 1개와 각각 GPU 8개를 갖춘 작업자 2개가 포함된 주요 구성( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
worker_count=2,
worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])
TPUStrategy
CPU 1개와 TPU를 사용하는 작업자 1개가 포함된 주요 구성입니다.
tfc.run(entry_point="mnist_example.py",
chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
worker_count=1,
worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])
TensorFlow Cloud를 사용한 TPUStrategy는 AI Platform 클라우드 TPU 에서 지원하는 최신 버전인 TF 버전 2.1에서만 작동합니다.
맞춤형 배포 전략
모델 코드에서 배포 전략을 지정하고 API를 run
전략을 생성하지 않으려면 distribution_stategy
None
으로 설정하세요. 예를 들어 strategy.experimental_distribute_dataset
사용하는 경우 이는 필수입니다.
tfc.run(entry_point='mnist_example.py',
distribution_strategy=None,
worker_count=2)