סקירה כללית
מסמך זה מציג ממשקים המקלים על משימות למידה מאוחדות, כגון הדרכה מאוחדת או הערכה עם מודלים קיימים של למידת מכונה המיושמים ב-TensorFlow. בתכנון הממשקים הללו, המטרה העיקרית שלנו הייתה לאפשר להתנסות בלמידה מאוחדת מבלי להידרש לידע כיצד היא פועלת מתחת למכסה המנוע, ולהעריך את אלגוריתמי הלמידה המאוחדים המיושמים על מגוון מודלים ונתונים קיימים. אנו ממליצים לך לתרום בחזרה לפלטפורמה. TFF תוכנן מתוך מחשבה על יכולת הרחבה והרכבה, ואנו מברכים על תרומות; אנחנו נרגשים לראות מה יצא לך!
הממשקים שמציעה שכבה זו מורכבים משלושת חלקי המפתח הבאים:
דגמים . שיעורים ופונקציות עוזרות המאפשרות לך לעטוף את הדגמים הקיימים שלך לשימוש עם TFF. גלישת מודל יכולה להיות פשוטה כמו קריאה לפונקציית גלישה בודדת (למשל,
tff.learning.models.from_keras_model
), או הגדרת תת מחלקה של ממשקtff.learning.models.VariableModel
להתאמה אישית מלאה.בוני חישובים מאוחדים . פונקציות עוזר הבונות חישובים מאוחדים להדרכה או הערכה, תוך שימוש במודלים הקיימים שלך.
מערכי נתונים . אוספים מוכנים של נתונים שאתה יכול להוריד ולגשת אליהם ב-Python לשימוש בהדמיית תרחישי למידה מאוחדים. אף על פי שלמידה מאוחדת מיועדת לשימוש עם נתונים מבוזרים שלא ניתן פשוט להוריד במיקום מרכזי, בשלבי המחקר והפיתוח לרוב נוח לערוך ניסויים ראשוניים באמצעות נתונים שניתן להוריד ולתפעל באופן מקומי, במיוחד עבור מפתחים שעלולים להיות חדש בגישה.
ממשקים אלו מוגדרים בעיקר במרחב השמות tff.learning
, למעט מערכי נתונים מחקריים ויכולות אחרות הקשורות לסימולציה שקובצו ב- tff.simulation
. שכבה זו מיושמת באמצעות ממשקים ברמה נמוכה יותר המוצעים על ידי ה- Federated Core (FC) , המספקת גם סביבת זמן ריצה.
לפני שתמשיך, אנו ממליצים שתקרא תחילה את המדריכים על סיווג תמונות ויצירת טקסט , מכיוון שהם מציגים את רוב המושגים המתוארים כאן באמצעות דוגמאות קונקרטיות. אם אתה מעוניין ללמוד עוד על אופן הפעולה של TFF, אולי תרצה לדפדף על המדריך לאלגוריתמים מותאמים אישית כהקדמה לממשקים ברמה נמוכה יותר שבהם אנו משתמשים כדי לבטא את ההיגיון של חישובים מאוחדים, וכדי ללמוד את היישום הקיים של ממשקי tff.learning
.
דגמים
הנחות ארכיטקטוניות
סדרה
TFF שואפת לתמוך במגוון תרחישי למידה מבוזרת שבהם קוד מודל למידת המכונה שאתה כותב עשוי להיות מופעלת על מספר רב של לקוחות הטרוגניים עם יכולות מגוונות. בעוד שבקצה אחד של הספקטרום, ביישומים מסוימים, לקוחות אלה עשויים להיות שרתי מסד נתונים רבי עוצמה, שימושים חשובים רבים שהפלטפורמה שלנו מתכוונת לתמוך כוללים מכשירים ניידים ומשובצים עם משאבים מוגבלים. איננו יכולים להניח שהמכשירים הללו מסוגלים לארח זמני ריצה של Python; הדבר היחיד שאנו יכולים להניח בשלב זה הוא שהם מסוגלים לארח זמן ריצה מקומי של TensorFlow. לפיכך, הנחה ארכיטקטונית בסיסית שאנו מניחים ב-TFF היא שקוד הדגם שלך חייב להיות ניתן לסידרה כגרף TensorFlow.
אתה עדיין יכול (וצריך) לפתח את קוד ה-TF שלך בהתאם לשיטות המומלצות העדכניות ביותר כמו שימוש במצב להוט. עם זאת, הקוד הסופי חייב להיות ניתן לסידרה (למשל, ניתן לעטוף כפונקציה tf.function
עבור קוד במצב להוט). זה מבטיח שכל מצב Python או זרימת בקרה הדרושים בזמן הביצוע ניתנים להסדרה (אולי בעזרת Autograph ).
נכון לעכשיו, TensorFlow אינו תומך באופן מלא ב-Serializing ו-deserializing TensorFlow במצב להוט. לפיכך, הסדרה ב-TFF פועלת כיום לפי תבנית TF 1.0, כאשר כל הקוד חייב להיות בנוי בתוך tf.Graph
ש-TFF שולט בו. המשמעות היא שכרגע TFF לא יכול לצרוך מודל שכבר נבנה; במקום זאת, הלוגיקה של הגדרת המודל ארוזה בפונקציה no-arg שמחזירה tff.learning.models.VariableModel
. לאחר מכן, פונקציה זו נקראת על ידי TFF כדי להבטיח שכל רכיבי המודל מסודרים. בנוסף, בהיותה סביבה עם הקלדה חזקה, TFF ידרוש מעט מטא נתונים נוספים, כגון מפרט של סוג הקלט של הדגם שלך.
צבירה
אנו ממליצים בחום לרוב המשתמשים לבנות מודלים באמצעות Keras, עיין בסעיף ממירים עבור Keras להלן. עטיפות אלו מטפלות באופן אוטומטי בצבירה של עדכוני מודל וכן בכל מדד שהוגדר עבור המודל. עם זאת, עדיין עשוי להיות שימושי להבין כיצד מטופל צבירה עבור tff.learning.models.VariableModel
כללי.
תמיד יש לפחות שתי שכבות של צבירה בלמידה מאוחדת: צבירה מקומית במכשיר, וצבירה חוצה-מכשירים (או מאוחדת):
צבירה מקומית . רמת צבירה זו מתייחסת לצבירה על פני מספר אצוות של דוגמאות בבעלות לקוח בודד. זה חל גם על פרמטרי המודל (משתנים), שממשיכים להתפתח ברצף ככל שהמודל מאומן באופן מקומי, וגם על הסטטיסטיקה שאתה מחשב (כגון הפסד ממוצע, דיוק ומדדים אחרים), שהמודל שלך יעודכן שוב באופן מקומי. כפי שהוא חוזר על זרם הנתונים המקומי של כל לקוח בודד.
ביצוע צבירה ברמה זו הוא באחריות קוד הדגם שלך, והוא מתבצע באמצעות מבנים סטנדרטיים של TensorFlow.
המבנה הכללי של העיבוד הוא כדלקמן:
המודל בונה תחילה
tf.Variable
s כדי להחזיק אגרגטים, כגון מספר אצווה או מספר דוגמאות שעובדו, סכום הפסדים לכל אצווה או לכל דוגמה וכו'.TFF מפעיל את שיטת
forward_pass
Model
שלך מספר פעמים, ברצף על פני אצווה של נתוני לקוח, מה שמאפשר לך לעדכן את המשתנים המכילים אגרגטים שונים כתופעת לוואי.לבסוף, TFF מפעיל את שיטת
report_local_unfinalized_metrics
במודל שלך כדי לאפשר למודל שלך לאסוף את כל הנתונים הסטטיסטיים המסכמים שהוא אסף לתוך קבוצה קומפקטית של מדדים שייצא על ידי הלקוח. זה המקום שבו קוד הדגם שלך עשוי, למשל, לחלק את סכום ההפסדים במספר הדוגמאות שעובדו לייצוא ההפסד הממוצע וכו'.
צבירה מאוחדת . רמת צבירה זו מתייחסת לצבירה על פני מספר לקוחות (מכשירים) במערכת. שוב, זה חל הן על פרמטרי המודל (משתנים), אשר ממוצעים בין לקוחות, כמו גם על המדדים שהמודל שלך ייצא כתוצאה מצבירה מקומית.
ביצוע צבירה ברמה זו הוא באחריות TFF. עם זאת, בתור יוצר מודל, אתה יכול לשלוט בתהליך הזה (עוד על כך בהמשך).
המבנה הכללי של העיבוד הוא כדלקמן:
המודל הראשוני, וכל הפרמטרים הנדרשים להדרכה, מופצים על ידי שרת לקבוצת משנה של לקוחות שישתתפו בסבב הדרכה או הערכה.
בכל לקוח, באופן עצמאי ובמקביל, קוד הדגם שלך מופעל שוב ושוב בזרם של אצוות נתונים מקומיים כדי לייצר קבוצה חדשה של פרמטרים של מודל (בעת אימון), וקבוצה חדשה של מדדים מקומיים, כמתואר לעיל (זהו מקומי צבירה).
TFF מפעיל פרוטוקול צבירה מבוזר כדי לצבור ולצבור את פרמטרי המודל והמדדים המיוצאים מקומית על פני המערכת. ההיגיון הזה בא לידי ביטוי בצורה הצהרתית תוך שימוש בשפת החישוב המאוחדת של TFF (לא ב-TensorFlow). עיין במדריך האלגוריתמים המותאמים אישית למידע נוסף על ממשק ה-API לצבירה.
ממשקים מופשטים
ממשק הבנאי + מטא נתונים בסיסי זה מיוצג על ידי הממשק tff.learning.models.VariableModel
, באופן הבא:
השיטות constructor,
forward_pass
ו-report_local_unfinalized_metrics
צריכות לבנות משתני מודל, העברה קדימה וסטטיסטיקה שאתה רוצה לדווח, בהתאם. ה-TensorFlow שנבנה בשיטות אלו חייב להיות ניתן לסידרה, כפי שנדון לעיל.המאפיין
input_spec
, כמו גם 3 המאפיינים שמחזירים קבוצות משנה של המשתנים הניתנים לאימון, הלא ניתנים לאימון והמקומיים שלך מייצגים את המטא נתונים. TFF משתמש במידע זה כדי לקבוע כיצד לחבר חלקים מהמודל שלך לאלגוריתמי האופטימיזציה המאוחדים, וכדי להגדיר חתימות סוג פנימיות כדי לסייע באימות נכונות המערכת הבנויה (כדי שלא ניתן להפעיל את המודל שלך על פני נתונים שאינם תואמים למה הדגם נועד לצרוך).
בנוסף, הממשק המופשט tff.learning.models.VariableModel
חושף מאפיין metric_finalizers
שמקבל את הערכים הלא סופיים של המדד (מוחזר על ידי report_local_unfinalized_metrics()
) ומחזיר את ערכי המדד הסופיים. שיטת metric_finalizers
ו- report_local_unfinalized_metrics()
ישמשו יחד כדי לבנות צובר מדדי חוצה לקוחות בעת הגדרת תהליכי ההדרכה המאוחדים או חישובי ההערכה. לדוגמה, אגרגטור פשוט tff.learning.metrics.sum_then_finalize
יסכם תחילה את ערכי המדדים הלא סופיים מלקוחות, ולאחר מכן יקרא לפונקציות הסופיות בשרת.
תוכל למצוא דוגמאות כיצד להגדיר את tff.learning.models.VariableModel
המותאם אישית שלך בחלק השני של המדריך שלנו לסיווג תמונות , כמו גם במודלים לדוגמה שבהם אנו משתמשים לבדיקה ב- model_examples.py
.
ממירים עבור Keras
ניתן להפיק כמעט את כל המידע שנדרש על ידי TFF על ידי קריאה לממשקי tf.keras
, כך שאם יש לך מודל של Keras, אתה יכול להסתמך על tff.learning.models.from_keras_model
כדי לבנות tff.learning.models.VariableModel
.
שים לב ש-TFF עדיין רוצה שתספק בנאי - פונקציית מודל ללא ויכוח, כגון:
def model_fn():
keras_model = ...
return tff.learning.models.from_keras_model(keras_model, sample_batch, loss=...)
בנוסף למודל עצמו, אתה מספק אצווה לדוגמה של נתונים שבה TFF משתמש כדי לקבוע את הסוג והצורה של הקלט של המודל שלך. זה מבטיח ש-TFF יכול להמחיש כראוי את המודל עבור הנתונים שיהיו קיימים בפועל במכשירי הלקוח (מכיוון שאנו מניחים שהנתונים הללו אינם זמינים בדרך כלל בזמן שאתה בונה את TensorFlow להסדרה).
השימוש בעטיפות Keras מומחש במדריכי סיווג התמונות ויצירת טקסטים שלנו.
בוני חישובים מאוחדים
חבילת tff.learning
מספקת מספר בונים עבור tff.Computation
s המבצעים משימות הקשורות ללמידה; אנו מצפים שמערך החישובים הללו יתרחב בעתיד.
הנחות ארכיטקטוניות
הוֹצָאָה לְפוֹעַל
ישנם שני שלבים נפרדים בהפעלת חישוב מאוחד.
קומפיל : TFF מרכיב תחילה אלגוריתמי למידה מאוחדים לייצוג מופשט מופשט של כל החישוב המבוזר. זה הזמן שבו מתרחשת סריאליזציה של TensorFlow, אבל שינויים אחרים יכולים להתרחש כדי לתמוך בביצוע יעיל יותר. אנו מתייחסים לייצוג הסדרתי הנפלט על ידי המהדר כחישוב מאוחד .
הפעל TFF מספק דרכים לביצוע חישובים אלה. לעת עתה, הביצוע נתמך רק באמצעות סימולציה מקומית (למשל, במחברת באמצעות נתונים מבוזרים מדומה).
חישוב מאוחד שנוצר על ידי ה-API Federated Learning של TFF, כגון אלגוריתם אימון המשתמש בממוצע מודלים מאוחדים , או הערכה מאוחדת, כולל מספר אלמנטים, בעיקר:
צורה מסודרת של קוד המודל שלך, כמו גם קוד TensorFlow נוסף שנבנה על ידי מסגרת הלמידה הפדרתית כדי להניע את לולאת ההדרכה/הערכה של המודל שלך (כגון בניית אופטימיזציה, החלת עדכוני מודל, איטרציה על s
tf.data.Dataset
ומדדי מחשוב, והחלת העדכון המצטבר על השרת, אם להזכיר כמה).מפרט הצהרתי של התקשורת בין הלקוחות לשרת (בדרך כלל צורות שונות של צבירה על פני התקני הלקוח, ושידור מהשרת לכל הלקוחות), וכיצד תקשורת מבוזרת זו משתלבת בביצוע הלקוח-מקומי או שרת-מקומי של קוד TensorFlow.
החישובים המאוחדים המיוצגים בצורה מסודרת זו באים לידי ביטוי בשפה פנימית בלתי תלויה בפלטפורמה הנבדלת מ-Python, אך כדי להשתמש בממשק ה-Federated Learning API, לא תצטרכו להתעסק בפרטים של ייצוג זה. החישובים מיוצגים בקוד Python שלך כאובייקטים מסוג tff.Computation
, שלרוב אתה יכול להתייחס אליהם כאל Python אטום callable
.
במדריכים, תפעיל את החישובים המאוחדים האלה כאילו היו פונקציות Python רגילות, לביצוע מקומי. עם זאת, TFF נועד לבטא חישובים מאוחדים בצורה אגנוסטית לרוב ההיבטים של סביבת הביצוע, כך שהם יכולים להיות ניתנים לפריסה, למשל, קבוצות של מכשירים המריצים Android
, או אשכולות במרכז נתונים. שוב, התוצאה העיקרית של זה הן הנחות חזקות לגבי סריאליזציה . בפרט, כאשר אתה מפעיל את אחת משיטות ה- build_...
המתוארות להלן, החישוב מתבצע בסידרה מלאה.
מצב דוגמנות
TFF היא סביבת תכנות פונקציונלית, אך תהליכים רבים של עניין בלמידה מאוחדת הם ממלכתיים. לדוגמה, לולאת אימון הכוללת סבבים מרובים של ממוצע מודלים מאוחדים היא דוגמה למה שאנו יכולים לסווג כתהליך ממלכתי . בתהליך זה, המצב שמתפתח מסיבוב לסיבוב כולל את קבוצת פרמטרי המודל המתאמנים, ואולי מצב נוסף הקשור לאופטימיזר (למשל, וקטור מומנטום).
מכיוון ש-TFF הוא פונקציונלי, תהליכים מצביים מעוצבים ב-TFF כחישובים המקבלים את המצב הנוכחי כקלט ולאחר מכן מספקים את המצב המעודכן כפלט. על מנת להגדיר באופן מלא תהליך מצבי, צריך גם לציין מאיפה מגיע המצב ההתחלתי (אחרת לא נוכל להפעיל את התהליך). זה נלכד בהגדרה של מחלקת העזר tff.templates.IterativeProcess
, כאשר 2 המאפיינים initialize
next
תואמים את האתחול והאיטרציה, בהתאמה.
בונים זמינים
נכון לעכשיו, TFF מספק פונקציות בונה שונות המייצרות חישובים מאוחדים לאימון והערכה מאוחדים. שתי דוגמאות בולטות כוללות:
tff.learning.algorithms.build_weighted_fed_avg
, שלוקח כקלט פונקציית מודל ומייעל לקוח , ומחזירtff.learning.templates.LearningProcess
stateful (שמחלק אתtff.templates.IterativeProcess
).tff.learning.build_federated_evaluation
לוקח פונקציית מודל ומחזיר חישוב מאוחד יחיד עבור הערכה מאוחדת של מודלים, מכיוון שההערכה אינה מצבית.
מערכי נתונים
הנחות ארכיטקטוניות
בחירת לקוח
בתרחיש למידה מאוחדת טיפוסי, יש לנו אוכלוסייה גדולה של מאות מיליוני מכשירי לקוח, שרק חלק קטן מהם עשוי להיות פעיל וזמין להדרכה בכל רגע נתון (לדוגמה, זה עשוי להיות מוגבל ללקוחות שהם מחובר למקור מתח, לא ברשת מדורגת, ובדרך אחרת לא פעיל). בדרך כלל, קבוצת הלקוחות הזמינה להשתתף בהדרכה או הערכה היא מחוץ לשליטת המפתח. יתר על כן, מכיוון שזה לא מעשי לתאם מיליוני לקוחות, סבב הדרכה או הערכה טיפוסי יכלול רק חלק קטן מהלקוחות הזמינים, אשר עשויים להידגם באקראי .
התוצאה המרכזית של זה היא שחישובים מאוחדים, לפי התכנון, באים לידי ביטוי באופן שאינו מודע לקבוצת המשתתפים המדויקת; כל העיבוד מתבטא כפעולות מצטברות על קבוצה מופשטת של לקוחות אנונימיים, וקבוצה זו עשויה להשתנות מסבב אימון אחד לאחר. הכריכה בפועל של החישוב למשתתפים הקונקרטיים, ובכך לנתונים הקונקרטיים שהם מזינים לחישוב, מעוצבת אפוא מחוץ לחישוב עצמו.
על מנת לדמות פריסה מציאותית של קוד הלמידה המאוחד שלך, בדרך כלל תכתוב לולאת אימון שנראית כך:
trainer = tff.learning.algorithms.build_weighted_fed_avg(...)
state = trainer.initialize()
federated_training_data = ...
def sample(federate_data):
return ...
while True:
data_for_this_round = sample(federated_training_data)
result = trainer.next(state, data_for_this_round)
state = result.state
על מנת להקל על כך, בעת שימוש ב-TFF בסימולציות, נתונים מאוחדים מתקבלים כ-Python list
s, עם רכיב אחד לכל התקן לקוח משתתף כדי לייצג את tf.data.Dataset
המקומי של המכשיר הזה.
ממשקים מופשטים
על מנת לתקן את ההתמודדות עם מערכי נתונים מאוחדים מדומים, TFF מספק ממשק מופשט tff.simulation.datasets.ClientData
, המאפשר למנות את קבוצת הלקוחות, ולבנות מערך tf.data.Dataset
המכיל את הנתונים של נתון מסוים לָקוּחַ. ניתן להזין את tf.data.Dataset
הללו ישירות כקלט לחישובים המאוחדים שנוצרו במצב להוט.
יש לציין שהיכולת לגשת לזהות לקוחות היא תכונה שמסופקת רק על ידי מערכי הנתונים לשימוש בסימולציות, שבהן עשויה להיות צורך ביכולת להתאמן על נתונים מתת-קבוצות ספציפיות של לקוחות (למשל, כדי לדמות את הזמינות היומית של שונים סוגי לקוחות). החישובים שנאספו וזמן הריצה הבסיסי אינם כרוכים בשום מושג של זהות הלקוח. לאחר שנבחרו נתונים מתת-קבוצה ספציפית של לקוחות כקלט, למשל, בקריאה ל- tff.templates.IterativeProcess.next
, זהויות הלקוח אינן מופיעות בו עוד.
ערכות נתונים זמינות
הקדשנו את מרחב השמות tff.simulation.datasets
עבור מערכי נתונים המיישמים את ממשק tff.simulation.datasets.ClientData
לשימוש בסימולציות, וזרמנו אותו עם מערכי נתונים כדי לתמוך במדריכי סיווג תמונות ויצירת טקסט . אנו רוצים לעודד אותך לתרום מערכי נתונים משלך לפלטפורמה.