ตามค่าเริ่มต้น การ run
API จะดูแลการล้อมโค้ดโมเดลของคุณในกลยุทธ์การกระจาย TensorFlow ตามการกำหนดค่าคลัสเตอร์ที่คุณระบุ
ไม่มีการจำหน่าย
การกำหนดค่าหัวหน้า CPU และไม่มีผู้ปฏิบัติงานเพิ่มเติม
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])
OneDeviceStrategy
1 GPU เป็นหัวหน้า (ค่าเริ่มต้นคือ AcceleratorType.NVIDIA_TESLA_T4
) และไม่มีผู้ปฏิบัติงานเพิ่มเติม
tfc.run(entry_point='mnist_example.py')
MirroredStrategy
กำหนดค่าหลักด้วย GPU หลายตัว ( AcceleratorType.NVIDIA_TESLA_V100
)
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])
MultiWorkerMirroredStrategy
กำหนดค่าหลักด้วย 1 GPU และพนักงาน 2 คนโดยแต่ละคนมี 8 GPU ( AcceleratorType.NVIDIA_TESLA_V100
)
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
worker_count=2,
worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])
TPUStrategy
หัวหน้าการกำหนดค่าด้วย 1 CPU และผู้ปฏิบัติงาน 1 คนพร้อม TPU
tfc.run(entry_point="mnist_example.py",
chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
worker_count=1,
worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])
โปรดทราบว่า TPUStrategy พร้อม TensorFlow Cloud ใช้งานได้กับ TF เวอร์ชัน 2.1 เท่านั้น เนื่องจากเป็นเวอร์ชันล่าสุดที่รองรับโดย AI Platform cloud TPU
กลยุทธ์การกระจายแบบกำหนดเอง
หากคุณต้องการระบุกลยุทธ์การกระจายในโค้ดโมเดลของคุณและไม่ต้องการให้ run
API เพื่อสร้างกลยุทธ์ ให้ตั้งค่า distribution_stategy
เป็น None
สิ่งนี้จำเป็น ตัวอย่างเช่น เมื่อคุณใช้ strategy.experimental_distribute_dataset
tfc.run(entry_point='mnist_example.py',
distribution_strategy=None,
worker_count=2)