tensor akışı:: işlem:: KaynakUygulaAdagrad

#include <training_ops.h>

Adagrad şemasına göre '*var'ı güncelleyin.

Özet

birikim += grad * grad var -= lr * grad * (1 / sqrt(birikim))

Argümanlar:

  • kapsam: Bir Kapsam nesnesi
  • var: Bir Variable()'dan olmalıdır.
  • accum: Bir Variable()'dan olmalıdır.
  • lr: Ölçeklendirme faktörü. Bir skaler olmalı.
  • grad: Gradyan.

İsteğe bağlı özellikler (bkz. Attrs ):

  • use_locking: True ise, var ve accum tensörlerinin güncellenmesi bir kilitle korunacaktır; aksi takdirde davranış tanımsızdır ancak daha az çekişme sergileyebilir.

İade:

Yapıcılar ve Yıkıcılar

ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad)
ResourceApplyAdagrad (const :: tensorflow::Scope & scope, :: tensorflow::Input var, :: tensorflow::Input accum, :: tensorflow::Input lr, :: tensorflow::Input grad, const ResourceApplyAdagrad::Attrs & attrs)

Genel özellikler

operation

Kamu işlevleri

operator::tensorflow::Operation () const

Genel statik işlevler

UpdateSlots (bool x)
UseLocking (bool x)

Yapılar

tensorflow:: ops:: ResourceApplyAdagrad:: Öznitelikler

ResourceApplyAdagrad için isteğe bağlı öznitelik ayarlayıcılar.

Genel özellikler

operasyon

Operation operation

Kamu işlevleri

KaynakUygulaAdagrad

 ResourceApplyAdagrad(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input accum,
  ::tensorflow::Input lr,
  ::tensorflow::Input grad
)

KaynakUygulaAdagrad

 ResourceApplyAdagrad(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input var,
  ::tensorflow::Input accum,
  ::tensorflow::Input lr,
  ::tensorflow::Input grad,
  const ResourceApplyAdagrad::Attrs & attrs
)

operatör::tensorflow::İşlem

 operator::tensorflow::Operation() const 

Genel statik işlevler

Güncelleme Yuvaları

Attrs UpdateSlots(
  bool x
)

KullanımKilitleme

Attrs UseLocking(
  bool x
)