ক্লাস্টার এবং বিতরণ কৌশল কনফিগারেশন

ডিফল্টরূপে, run API আপনার সরবরাহ করা ক্লাস্টার কনফিগারেশনের উপর ভিত্তি করে একটি টেনসরফ্লো বিতরণ কৌশলে আপনার মডেল কোড মোড়ানোর যত্ন নেয়।

কোন বন্টন

CPU প্রধান কনফিগারেশন এবং কোন অতিরিক্ত কর্মী নেই

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['CPU'])

OneDeviceStrategy

1 জিপিইউ অন চিফ ( AcceleratorType.NVIDIA_TESLA_T4 এ ডিফল্ট) এবং অতিরিক্ত কর্মী নেই।

tfc.run(entry_point='mnist_example.py')

MirroredStrategy

একাধিক GPU সহ প্রধান কনফিগারেশন ( AcceleratorType.NVIDIA_TESLA_V100 )।

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_4X'])

MultiWorkerMirroredStrategy

1 GPU সহ চিফ কনফিগারেশন এবং 2 কর্মী প্রতিটি 8 GPU সহ ( AcceleratorType.NVIDIA_TESLA_V100 )।

tfc.run(entry_point='mnist_example.py',
        chief_config=tfc.COMMON_MACHINE_CONFIGS['V100_1X'],
        worker_count=2,
        worker_config=tfc.COMMON_MACHINE_CONFIGS['V100_8X'])

TPUStrategy

1 CPU সহ প্রধান কনফিগার এবং TPU সহ 1 কর্মী।

tfc.run(entry_point="mnist_example.py",
        chief_config=tfc.COMMON_MACHINE_CONFIGS["CPU"],
        worker_count=1,
        worker_config=tfc.COMMON_MACHINE_CONFIGS["TPU"])

অনুগ্রহ করে মনে রাখবেন যে টেনসরফ্লো ক্লাউডের সাথে TPUStrategy শুধুমাত্র TF সংস্করণ 2.1 এর সাথে কাজ করে কারণ এটি AI প্ল্যাটফর্ম ক্লাউড TPU দ্বারা সমর্থিত সর্বশেষ সংস্করণ।

কাস্টম বিতরণ কৌশল

আপনি যদি আপনার মডেল কোডে একটি বন্টন কৌশল নির্দিষ্ট করার যত্ন নিতে চান এবং একটি কৌশল তৈরি করতে API run না চান, তাহলে distribution_stategy None হিসাবে সেট করুন। এটি প্রয়োজন হবে, উদাহরণস্বরূপ, যখন আপনি strategy.experimental_distribute_dataset ব্যবহার করছেন।

tfc.run(entry_point='mnist_example.py',
        distribution_strategy=None,
        worker_count=2)