การกำหนดค่ากลยุทธ์คลัสเตอร์และการกระจาย

ตามค่าเริ่มต้น การ run API จะดูแลการล้อมโค้ดโมเดลของคุณในกลยุทธ์การกระจาย TensorFlow ตามการกำหนดค่าคลัสเตอร์ที่คุณระบุ

ไม่มีการจำหน่าย

การกำหนดค่าหัวหน้า CPU และไม่มีผู้ปฏิบัติงานเพิ่มเติม

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])

OneDeviceStrategy

1 GPU เป็นหัวหน้า (ค่าเริ่มต้นคือ AcceleratorType.NVIDIA_TESLA_T4 ) และไม่มีผู้ปฏิบัติงานเพิ่มเติม

tfc.run(entry_point='mnist_example.py')

MirroredStrategy

กำหนดค่าหลักด้วย GPU หลายตัว ( AcceleratorType.NVIDIA_TESLA_V100 )

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])

MultiWorkerMirroredStrategy

กำหนดค่าหลักด้วย 1 GPU และพนักงาน 2 คนโดยแต่ละคนมี 8 GPU ( AcceleratorType.NVIDIA_TESLA_V100 )

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
        worker_count=2,
        worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])

TPUStrategy

หัวหน้าการกำหนดค่าด้วย 1 CPU และผู้ปฏิบัติงาน 1 คนพร้อม TPU

tfc.run(entry_point="mnist_example.py",
        chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
        worker_count=1,
        worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])

โปรดทราบว่า TPUStrategy พร้อม TensorFlow Cloud ใช้งานได้กับ TF เวอร์ชัน 2.1 เท่านั้น เนื่องจากเป็นเวอร์ชันล่าสุดที่รองรับโดย AI Platform cloud TPU

กลยุทธ์การกระจายแบบกำหนดเอง

หากคุณต้องการระบุกลยุทธ์การกระจายในโค้ดโมเดลของคุณและไม่ต้องการให้ run API เพื่อสร้างกลยุทธ์ ให้ตั้งค่า distribution_stategy เป็น None สิ่งนี้จำเป็น ตัวอย่างเช่น เมื่อคุณใช้ strategy.experimental_distribute_dataset

tfc.run(entry_point='mnist_example.py',
        distribution_strategy=None,
        worker_count=2)