lớp cuối cùng công khai ResourceApplyAdagrad
Cập nhật '*var' theo sơ đồ adagrad.
tích lũy += grad * grad var -= lr * grad * (1 / (sqrt(accum) + epsilon))
Các lớp lồng nhau
lớp học | ResourceApplyAdagrad.Options | Thuộc tính tùy chọn cho ResourceApplyAdagrad |
Hằng số
Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công khai
tĩnh <T mở rộng TType > ResourceApplyAdagrad | |
tĩnh ResourceApplyAdagrad.Options | updateSlots (Boolean updateSlots) |
tĩnh ResourceApplyAdagrad.Options | useLocking (Boolean useLocking) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Giá trị không đổi: "ResourceApplyAdagradV2"
Phương pháp công khai
public static ResourceApplyAdagrad create ( Phạm vi phạm vi, Toán hạng <?> var, Toán hạng <?> accum, Toán hạng <T> lr, Toán hạng <T> epsilon, Toán hạng <T> grad, Tùy chọn... tùy chọn)
Phương thức xuất xưởng để tạo một lớp bao bọc một hoạt động ResourceApplyAdagrad mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
var | Phải từ một Biến(). |
tích lũy | Phải từ một Biến(). |
lr | Yếu tố nhân rộng. Phải là một vô hướng. |
epsilon | Yếu tố không đổi. Phải là một vô hướng. |
tốt nghiệp | Độ dốc. |
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của ResourceApplyAdagrad
public static ResourceApplyAdagrad.Options useLocking (Boolean useLocking)
Thông số
sử dụngKhóa | Nếu `True`, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. |
---|