dòng chảy căng:: ôi:: thưa thớtÁp dụngGầnAdagrad
#include <training_ops.h>
Các mục cập nhật thưa thớt trong '*var' và '*accum' theo thuật toán FOBOS.
Bản tóm tắt
Đó là đối với các hàng chúng tôi có grad, chúng tôi cập nhật var và accum như sau:
$$accum += grad * grad$$
$$prox_v = var$$
$$prox_v -= lr * grad * (1 / sqrt(accum))$$
$$var = sign(prox_v)/(1+lr*l2) * max{|prox_v|-lr*l1,0}$$
Lập luận:
- phạm vi: Một đối tượng Phạm vi
- var: Phải từ một Biến().
- tích lũy: Phải từ một Biến().
- lr: Tốc độ học tập. Phải là một vô hướng.
- l1: Chính quy hóa L1. Phải là một vô hướng.
- l2: Chính quy hóa L2. Phải là một vô hướng.
- grad: Độ dốc.
- chỉ số: Một vectơ chỉ số vào chiều thứ nhất của var và accum.
Thuộc tính tùy chọn (xem Attrs
):
- use_locking: Nếu đúng, việc cập nhật các tensor var và accum sẽ được bảo vệ bằng khóa; mặt khác, hành vi không được xác định, nhưng có thể ít gây tranh cãi hơn.
Trả về:
-
Output
: Giống như "var".
Hàm tạo và hàm hủy | |
---|---|
SparseApplyProximalAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices) | |
SparseApplyProximalAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input l1, :: tensorflow::Input l2, :: tensorflow::Input grad, :: tensorflow::Input indices, const SparseApplyProximalAdagrad::Attrs & attrs) |
Thuộc tính công khai | |
---|---|
operation | |
out |
Chức năng công cộng | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Các hàm tĩnh công khai | |
---|---|
UseLocking (bool x) |
Cấu trúc | |
---|---|
tenorflow:: ops:: SparseApplyProximalAdagrad:: Attrs | Bộ cài đặt thuộc tính tùy chọn cho SparseApplyProximalAdagrad . |
Thuộc tính công khai
hoạt động
Operation operation
ngoài
::tensorflow::Output out
Chức năng công cộng
thưa thớtÁp dụngGầnAdagrad
SparseApplyProximalAdagrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input lr, ::tensorflow::Input l1, ::tensorflow::Input l2, ::tensorflow::Input grad, ::tensorflow::Input indices )
thưa thớtÁp dụngGầnAdagrad
SparseApplyProximalAdagrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input lr, ::tensorflow::Input l1, ::tensorflow::Input l2, ::tensorflow::Input grad, ::tensorflow::Input indices, const SparseApplyProximalAdagrad::Attrs & attrs )
nút
::tensorflow::Node * node() const
toán tử::tenorflow::Đầu vào
operator::tensorflow::Input() const
toán tử::tenorflow::Đầu ra
operator::tensorflow::Output() const
Các hàm tĩnh công khai
Sử dụngKhóa
Attrs UseLocking( bool x )