ডিফল্টরূপে, run
API আপনার সরবরাহ করা ক্লাস্টার কনফিগারেশনের উপর ভিত্তি করে একটি টেনসরফ্লো বিতরণ কৌশলে আপনার মডেল কোড মোড়ানোর যত্ন নেয়।
কোন বন্টন
CPU প্রধান কনফিগারেশন এবং কোন অতিরিক্ত কর্মী নেই
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])
OneDeviceStrategy
1 জিপিইউ অন চিফ ( AcceleratorType.NVIDIA_TESLA_T4
এ ডিফল্ট) এবং অতিরিক্ত কর্মী নেই।
tfc.run(entry_point='mnist_example.py')
MirroredStrategy
একাধিক GPU সহ প্রধান কনফিগারেশন ( AcceleratorType.NVIDIA_TESLA_V100
)।
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])
MultiWorkerMirroredStrategy
1 GPU সহ চিফ কনফিগারেশন এবং 2 কর্মী প্রতিটি 8 GPU সহ ( AcceleratorType.NVIDIA_TESLA_V100
)।
tfc.run(entry_point='mnist_example.py',
chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
worker_count=2,
worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])
TPUStrategy
1 CPU সহ প্রধান কনফিগার এবং TPU সহ 1 কর্মী।
tfc.run(entry_point="mnist_example.py",
chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
worker_count=1,
worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])
অনুগ্রহ করে মনে রাখবেন যে টেনসরফ্লো ক্লাউডের সাথে TPUStrategy শুধুমাত্র TF সংস্করণ 2.1 এর সাথে কাজ করে কারণ এটি AI প্ল্যাটফর্ম ক্লাউড TPU দ্বারা সমর্থিত সর্বশেষ সংস্করণ।
কাস্টম বিতরণ কৌশল
আপনি যদি আপনার মডেল কোডে একটি বন্টন কৌশল নির্দিষ্ট করার যত্ন নিতে চান এবং একটি কৌশল তৈরি করতে API run
না চান, তাহলে distribution_stategy
None
হিসাবে সেট করুন। এটি প্রয়োজন হবে, উদাহরণস্বরূপ, যখন আপনি strategy.experimental_distribute_dataset
ব্যবহার করছেন।
tfc.run(entry_point='mnist_example.py',
distribution_strategy=None,
worker_count=2)