Operacje szkoleniowe
Streszczenie
Zajęcia | |
---|---|
tensorflow:: ops:: ApplyAdadelta | Zaktualizuj „*var” zgodnie ze schematem adadelta. |
tensorflow:: ops:: ApplyAdagrad | Zaktualizuj „*var” zgodnie ze schematem adagrad. |
tensorflow:: ops:: ApplyAdagradDA | Zaktualizuj „*var” zgodnie ze schematem bliższego adagradu. |
tensorflow:: ops:: ApplyAdam | Zaktualizuj „*var” zgodnie z algorytmem Adama. |
tensorflow:: ops:: ApplyAddSign | Zaktualizuj „*var” zgodnie z aktualizacją AddSign. |
tensorflow:: ops:: ApplyCenteredRMSProp | Zaktualizuj „*var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow:: ops:: ApplyFtrl | Zaktualizuj „*var” zgodnie ze schematem Ftrl-proksymalny. |
tensorflow:: ops:: ApplyFtrlV2 | Zaktualizuj „*var” zgodnie ze schematem Ftrl-proksymalny. |
tensorflow:: ops:: ApplyGradientDescent | Zaktualizuj „*var”, odejmując od niego „alfa” * „delta”. |
tensorflow:: ops:: ApplyMomentum | Zaktualizuj „*var” zgodnie ze schematem pędu. |
tensorflow:: ops:: ApplyPowerSign | Zaktualizuj „*var” zgodnie z aktualizacją AddSign. |
tensorflow:: ops:: ApplyProximalAdagrad | Zaktualizuj „*var” i „*accum” zgodnie z FOBOS z szybkością uczenia się Adagrad. |
tensorflow:: ops:: ApplyProximalGradientDescent | Zaktualizuj „*var” jako algorytm FOBOS ze stałą szybkością uczenia się. |
tensorflow:: ops:: ApplyRMSProp | Zaktualizuj „*var” zgodnie z algorytmem RMSProp. |
tensorflow:: ops:: ResourceApplyAdadelta | Zaktualizuj „*var” zgodnie ze schematem adadelta. |
tensorflow:: ops:: ResourceApplyAdagrad | Zaktualizuj „*var” zgodnie ze schematem adagrad. |
tensorflow:: ops:: ResourceApplyAdagradDA | Zaktualizuj „*var” zgodnie ze schematem bliższego adagradu. |
tensorflow:: ops:: ResourceApplyAdam | Zaktualizuj „*var” zgodnie z algorytmem Adama. |
tensorflow:: ops:: ResourceApplyAdamWithAmsgrad | Zaktualizuj „*var” zgodnie z algorytmem Adama. |
tensorflow:: ops:: ResourceApplyAddSign | Zaktualizuj „*var” zgodnie z aktualizacją AddSign. |
tensorflow:: ops:: ResourceApplyCenteredRMSProp | Zaktualizuj „*var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow:: ops:: ResourceApplyFtrl | Zaktualizuj „*var” zgodnie ze schematem Ftrl-proksymalny. |
tensorflow:: ops:: ResourceApplyFtrlV2 | Zaktualizuj „*var” zgodnie ze schematem Ftrl-proksymalny. |
tensorflow:: ops:: ResourceApplyGradientDescent | Zaktualizuj „*var”, odejmując od niego „alfa” * „delta”. |
tensorflow:: ops:: ResourceApplyKerasMomentum | Zaktualizuj „*var” zgodnie ze schematem pędu. |
tensorflow:: ops:: ResourceApplyMomentum | Zaktualizuj „*var” zgodnie ze schematem pędu. |
tensorflow:: ops:: ResourceApplyPowerSign | Zaktualizuj „*var” zgodnie z aktualizacją AddSign. |
tensorflow:: ops:: ResourceApplyProximalAdagrad | Zaktualizuj „*var” i „*accum” zgodnie z FOBOS z szybkością uczenia się Adagrad. |
tensorflow:: ops:: ResourceApplyProximalGradientDescent | Zaktualizuj „*var” jako algorytm FOBOS ze stałą szybkością uczenia się. |
tensorflow:: ops:: ResourceApplyRMSProp | Zaktualizuj „*var” zgodnie z algorytmem RMSProp. |
tensorflow:: ops:: ResourceSparseApplyAdadelta | var: Powinien pochodzić ze zmiennej (). |
tensorflow:: ops:: ResourceSparseApplyAdagrad | Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem adagrad. |
tensorflow:: ops:: ResourceSparseApplyAdagradDA | Zaktualizuj wpisy w „*var” i „*accum” zgodnie ze schematem bliższego adagradu. |
tensorflow:: ops:: ResourceSparseApplyCenteredRMSProp | Zaktualizuj „*var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow:: ops:: ResourceSparseApplyFtrl | Zaktualizuj odpowiednie wpisy w „*var” zgodnie ze schematem Ftrl-proximal. |
tensorflow:: ops:: ResourceSparseApplyFtrlV2 | Zaktualizuj odpowiednie wpisy w „*var” zgodnie ze schematem Ftrl-proximal. |
tensorflow:: ops:: ResourceSparseApplyKerasMomentum | Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem pędu. |
tensorflow:: ops:: ResourceSparseApplyMomentum | Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem pędu. |
tensorflow:: ops:: ResourceSparseApplyProximalAdagrad | Rzadkie wpisy aktualizacji w '*var' i '*accum' zgodnie z algorytmem FOBOS. |
tensorflow:: ops:: ResourceSparseApplyProximalGradientDescent | Rzadka aktualizacja „*var” jako algorytmu FOBOS ze stałą szybkością uczenia się. |
tensorflow:: ops:: ResourceSparseApplyRMSPProp | Zaktualizuj „*var” zgodnie z algorytmem RMSProp. |
tensorflow:: ops:: SparseApplyAdadelta | var: Powinien pochodzić ze zmiennej (). |
tensorflow:: ops:: SparseApplyAdagrad | Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem adagrad. |
tensorflow:: ops:: SparseApplyAdagradDA | Zaktualizuj wpisy w „*var” i „*accum” zgodnie ze schematem bliższego adagradu. |
tensorflow:: ops:: SparseApplyCenteredRMSPProp | Zaktualizuj „*var” zgodnie z wyśrodkowanym algorytmem RMSProp. |
tensorflow:: ops:: SparseApplyFtrl | Zaktualizuj odpowiednie wpisy w „*var” zgodnie ze schematem Ftrl-proximal. |
tensorflow:: ops:: SparseApplyFtrlV2 | Zaktualizuj odpowiednie wpisy w „*var” zgodnie ze schematem Ftrl-proximal. |
tensorflow:: ops:: SparseApplyMomentum | Zaktualizuj odpowiednie wpisy w „*var” i „*accum” zgodnie ze schematem pędu. |
tensorflow:: ops:: SparseApplyProximalAdagrad | Rzadkie wpisy aktualizacji w '*var' i '*accum' zgodnie z algorytmem FOBOS. |
tensorflow:: ops:: SparseApplyProximalGradientDescent | Rzadka aktualizacja „*var” jako algorytmu FOBOS ze stałą szybkością uczenia się. |
tensorflow:: ops:: SparseApplyRMSPProp | Zaktualizuj „*var” zgodnie z algorytmem RMSProp. |