תצורת אסטרטגיית אשכול והפצה

כברירת מחדל, run API דואג לעטוף את קוד הדגם שלך באסטרטגיית הפצה של TensorFlow המבוססת על תצורת האשכולות שסיפקת.

אין הפצה

תצורת ראשי המעבד וללא עובדים נוספים

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])

OneDeviceStrategy

1 GPU על chief (ברירת המחדל הוא AcceleratorType.NVIDIA_TESLA_T4 ) וללא עובדים נוספים.

tfc.run(entry_point='mnist_example.py')

MirroredStrategy

תצורה ראשית עם מספר GPUs ( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])

MultiWorkerMirroredStrategy

תצורה ראשית עם 1 GPU ו-2 עובדים כל אחד עם 8 GPUs ( AcceleratorType.NVIDIA_TESLA_V100 ).

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
        worker_count=2,
        worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])

TPUStrategy

תצורה ראשית עם מעבד אחד ועובד אחד עם TPU.

tfc.run(entry_point="mnist_example.py",
        chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
        worker_count=1,
        worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])

שימו לב ש-TPUStrategy עם TensorFlow Cloud עובד רק עם TF גרסה 2.1 מכיוון שזו הגרסה העדכנית ביותר הנתמכת על ידי AI Platform Cloud TPU

אסטרטגיית הפצה מותאמת אישית

אם ברצונך לדאוג לציון אסטרטגיית הפצה בקוד הדגם שלך ולא רוצה run API ליצירת אסטרטגיה, הגדר את distribution_stategy כ- None . זה יידרש, למשל, כאשר אתה משתמש strategy.experimental_distribute_dataset .

tfc.run(entry_point='mnist_example.py',
        distribution_strategy=None,
        worker_count=2)