यह ट्यूटोरियल वर्णन करेगा कि कुबेरनेट्स पर चलने वाले TFF रनटाइम का उपयोग करके उच्च-प्रदर्शन सिमुलेशन कैसे सेट किया जाए। मॉडल पिछले ट्यूटोरियल, TFF के साथ उच्च प्रदर्शन सिमुलेशन में के समान है। अंतर केवल इतना है कि यहां हम स्थानीय निष्पादक के बजाय वर्कर पूल का उपयोग करते हैं।
इस ट्यूटोरियल Google मेघ के लिए संदर्भित करता है GKE Kubernetes क्लस्टर बनाने के लिए है, लेकिन क्लस्टर बनाई गई है के बाद सभी कदम किसी भी Kubernetes स्थापना के साथ इस्तेमाल किया जा सकता।
TensorFlow.org पर देखें | Google Colab में चलाएं | GitHub पर स्रोत देखें | नोटबुक डाउनलोड करें |
GKE पर TFF वर्कर्स लॉन्च करें
कुबेरनेट्स क्लस्टर बनाएं
निम्नलिखित चरण को केवल एक बार करने की आवश्यकता है। भविष्य के कार्यभार के लिए क्लस्टर का पुन: उपयोग किया जा सकता है।
करने के लिए निर्देशों का पालन करें GKE एक कंटेनर क्लस्टर बनाने के । शेष ट्यूटोरियल मानता है कि क्लस्टर का नाम है tff-cluster
, लेकिन वास्तविक नाम महत्वपूर्ण नहीं है। बंद करो निर्देशों का पालन करने के लिए मिलता है जब आप "चरण 5: तैनात अपने आवेदन"।
TFF वर्कर एप्लिकेशन को परिनियोजित करें
जीसीपी के साथ बातचीत करने कमांड चलाने जा सकती है, स्थानीय स्तर पर या में Google मेघ शैल । हम Google क्लाउड शेल की अनुशंसा करते हैं क्योंकि इसके लिए अतिरिक्त सेटअप की आवश्यकता नहीं होती है।
- Kubernetes एप्लिकेशन लॉन्च करने के लिए निम्न कमांड चलाएँ।
$ kubectl create deployment tff-workers --image=gcr.io/tensorflow-federated/remote-executor-service:latest
- एप्लिकेशन के लिए लोड बैलेंसर जोड़ें।
$ kubectl expose deployment tff-workers --type=LoadBalancer --port 80 --target-port 8000
Google क्लाउड कंसोल पर लोडबैलेंसर का आईपी पता देखें। प्रशिक्षण लूप को वर्कर ऐप से जोड़ने के लिए आपको बाद में इसकी आवश्यकता होगी।
(वैकल्पिक रूप से) स्थानीय रूप से डॉकर कंटेनर लॉन्च करें
$ docker run --rm -p 8000:8000 gcr.io/tensorflow-federated/remote-executor-service:latest
TFF वातावरण सेट करें
!pip install --quiet --upgrade tensorflow-federated-nightly
!pip install --quiet --upgrade nest-asyncio
import nest_asyncio
nest_asyncio.apply()
मॉडल को प्रशिक्षित करने के लिए परिभाषित करें
import collections
import time
import tensorflow as tf
import tensorflow_federated as tff
source, _ = tff.simulation.datasets.emnist.load_data()
def map_fn(example):
return collections.OrderedDict(
x=tf.reshape(example['pixels'], [-1, 784]), y=example['label'])
def client_data(n):
ds = source.create_tf_dataset_for_client(source.client_ids[n])
return ds.repeat(10).batch(20).map(map_fn)
train_data = [client_data(n) for n in range(10)]
input_spec = train_data[0].element_spec
def model_fn():
model = tf.keras.models.Sequential([
tf.keras.layers.InputLayer(input_shape=(784,)),
tf.keras.layers.Dense(units=10, kernel_initializer='zeros'),
tf.keras.layers.Softmax(),
])
return tff.learning.from_keras_model(
model,
input_spec=input_spec,
loss=tf.keras.losses.SparseCategoricalCrossentropy(),
metrics=[tf.keras.metrics.SparseCategoricalAccuracy()])
trainer = tff.learning.build_federated_averaging_process(
model_fn, client_optimizer_fn=lambda: tf.keras.optimizers.SGD(0.02))
def evaluate(num_rounds=10):
state = trainer.initialize()
for round in range(num_rounds):
t1 = time.time()
state, metrics = trainer.next(state, train_data)
t2 = time.time()
print('Round {}: loss {}, round time {}'.format(round, metrics.loss, t2 - t1))
रिमोट एक्ज़ीक्यूटर्स सेट करें
डिफ़ॉल्ट रूप से, TFF सभी गणनाओं को स्थानीय रूप से निष्पादित करता है। इस चरण में हम TFF को हमारे द्वारा ऊपर स्थापित Kubernetes सेवाओं से जुड़ने के लिए कहते हैं। यहां अपनी सेवा के आईपी पते की प्रतिलिपि बनाना सुनिश्चित करें।
import grpc
ip_address = '0.0.0.0'
port = 80
channels = [grpc.insecure_channel(f'{ip_address}:{port}') for _ in range(10)]
tff.backends.native.set_remote_execution_context(channels)
प्रशिक्षण चलाएं
evaluate()
Round 0: loss 4.370407581329346, round time 4.201097726821899 Round 1: loss 4.1407670974731445, round time 3.3283166885375977 Round 2: loss 3.865147590637207, round time 3.098310947418213 Round 3: loss 3.534019708633423, round time 3.1565616130828857 Round 4: loss 3.272688388824463, round time 3.175067663192749 Round 5: loss 2.935391664505005, round time 3.008434534072876 Round 6: loss 2.7399251461029053, round time 3.31435227394104 Round 7: loss 2.5054931640625, round time 3.4411356449127197 Round 8: loss 2.290508985519409, round time 3.158798933029175 Round 9: loss 2.1194536685943604, round time 3.1348156929016113