כברירת מחדל, run
API דואג לעטוף את קוד הדגם שלך באסטרטגיית הפצה של TensorFlow המבוססת על תצורת האשכולות שסיפקת.
אין הפצה
תצורת ראשי המעבד וללא עובדים נוספים
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])
OneDeviceStrategy
1 GPU על chief (ברירת המחדל הוא AcceleratorType.NVIDIA_TESLA_T4
) וללא עובדים נוספים.
tfc.run(entry_point='mnist_example.py')
MirroredStrategy
תצורה ראשית עם מספר GPUs ( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])
MultiWorkerMirroredStrategy
תצורה ראשית עם 1 GPU ו-2 עובדים כל אחד עם 8 GPUs ( AcceleratorType.NVIDIA_TESLA_V100
).
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
worker_count=2,
worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])
TPUStrategy
תצורה ראשית עם מעבד אחד ועובד אחד עם TPU.
tfc.run(entry_point="mnist_example.py",
chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
worker_count=1,
worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])
שימו לב ש-TPUStrategy עם TensorFlow Cloud עובד רק עם TF גרסה 2.1 מכיוון שזו הגרסה העדכנית ביותר הנתמכת על ידי AI Platform Cloud TPU
אסטרטגיית הפצה מותאמת אישית
אם ברצונך לדאוג לציון אסטרטגיית הפצה בקוד הדגם שלך ולא רוצה run
API ליצירת אסטרטגיה, הגדר את distribution_stategy
כ- None
. זה יידרש, למשל, כאשר אתה משתמש strategy.experimental_distribute_dataset
.
tfc.run(entry_point='mnist_example.py',
distribution_strategy=None,
worker_count=2)