שיעורים
הפעלה <T מרחיבה את TNummer > | כיתת בסיס מופשטת עבור Activations הערה: יש להגדיר את התכונה |
ELU <T מרחיב TFLoating > | יחידה לינארית מעריכית. |
אקספוננציאלי <T מרחיב את TFLoating > | פונקציית הפעלה אקספוננציאלית. |
HardSigmoid <T מרחיב TFLoating > | הפעלת סיגמואידית קשה. |
ליניארי <U מרחיב את TNummer > | פונקציית הפעלה לינארית (מעבר). |
ReLU <T מרחיב את TNummer > | הפעלה של יחידה לינארית מתוקנת (ReLU). |
SELU <T מרחיב TFLoating > | יחידה לינארית מעריכית בקנה מידה (SELU). |
Sigmoid <T מרחיב TFLoating > | הפעלת סיגמואיד. |
Softmax <T מרחיב TFLoating > | Softmax ממירה וקטור אמיתי לוקטור של הסתברויות קטגוריות. |
Softplus <T מרחיב את TFLoating > | פונקציית הפעלה של Softplus, softplus(x) = log(exp(x) + 1) . |
Softsign <T מרחיב TFLoating > | פונקציית הפעלת Softsign, softsign(x) = x / (abs(x) + 1) . |
Swish <T מרחיב TFLoating > | פונקציית הפעלת Swish. |
Tanh <T מרחיב TFLoating > | פונקציית הפעלת משנג היפרבולית. |