tensor akışı:: işlem:: KaynakUygulaAdagrad
#include <training_ops.h>
Adagrad şemasına göre '*var'ı güncelleyin.
Özet
birikim += grad * grad var -= lr * grad * (1 / sqrt(birikim))
Argümanlar:
- kapsam: Bir Kapsam nesnesi
- var: Bir Variable()'dan olmalıdır.
- accum: Bir Variable()'dan olmalıdır.
- lr: Ölçeklendirme faktörü. Bir skaler olmalı.
- grad: Gradyan.
İsteğe bağlı özellikler (bkz. Attrs
):
- use_locking:
True
ise, var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.
İade:
- oluşturulan
Operation
Yapıcılar ve Yıkıcılar | |
---|---|
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad) | |
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs) |
Genel özellikler | |
---|---|
operation |
Kamu işlevleri | |
---|---|
operator::tensorflow::Operation () const |
Genel statik işlevler | |
---|---|
UpdateSlots (bool x) | |
UseLocking (bool x) |
Yapılar | |
---|---|
tensorflow:: ops:: ResourceApplyAdagrad:: Öznitelikler | ResourceApplyAdagrad için isteğe bağlı öznitelik ayarlayıcılar. |
Genel özellikler
operasyon
Operation operation
Kamu işlevleri
KaynakUygulaAdagrad
ResourceApplyAdagrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input lr, ::tensorflow::Input grad )
KaynakUygulaAdagrad
ResourceApplyAdagrad( const ::tensorflow::Scope & scope, ::tensorflow::Input var, ::tensorflow::Input accum, ::tensorflow::Input lr, ::tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs )
operatör::tensorflow::İşlem
operator::tensorflow::Operation() const
Genel statik işlevler
Güncelleme Yuvaları
Attrs UpdateSlots( bool x )
KullanımKilitleme
Attrs UseLocking( bool x )