Cập nhật '*var' theo sơ đồ adagrad.
tích lũy += grad * grad var -= lr * grad * (1 / sqrt(accum))
Các lớp lồng nhau
lớp học | Áp dụngAdagradV2.Options | Thuộc tính tùy chọn cho ApplyAdagradV2 |
Phương pháp công khai
Đầu ra <T> | asOutput () Trả về phần điều khiển tượng trưng của một tenxơ. |
tĩnh <T> Áp dụngAdagradV2 <T> | |
Đầu ra <T> | ngoài () Tương tự như "var". |
tĩnh ApplyAdagradV2.Options | updateSlots (Boolean updateSlots) |
tĩnh ApplyAdagradV2.Options | useLocking (Boolean useLocking) |
Phương pháp kế thừa
Phương pháp công khai
Đầu ra công khai <T> asOutput ()
Trả về phần điều khiển tượng trưng của một tenxơ.
Đầu vào của các hoạt động TensorFlow là đầu ra của một hoạt động TensorFlow khác. Phương pháp này được sử dụng để thu được một thẻ điều khiển mang tính biểu tượng đại diện cho việc tính toán đầu vào.
public static ApplyAdagradV2 <T> create ( Phạm vi phạm vi, Toán hạng <T> var, Toán hạng <T> accum, Toán hạng <T> lr, Toán hạng <T> epsilon, Toán hạng <T> grad, Tùy chọn... tùy chọn)
Phương thức gốc để tạo một lớp bao bọc một thao tác ApplyAdagradV2 mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
var | Phải từ một Biến(). |
tích lũy | Phải từ một Biến(). |
lr | Yếu tố nhân rộng. Phải là một vô hướng. |
epsilon | Yếu tố không đổi. Phải là một vô hướng. |
tốt nghiệp | Độ dốc. |
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của ApplyAdagradV2
public static ApplyAdagradV2.Options useLocking (Boolean useLocking)
Thông số
sử dụngKhóa | Nếu `True`, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn. |
---|