flux tensoriel : : opérations : : Softmax
#include <nn_ops.h>
Calcule les activations softmax.
Résumé
Pour chaque lot i
et classe j
nous avons
$$softmax[i, j] = exp(logits[i, j]) / sum_j(exp(logits[i, j]))$$
Arguments :
- scope : un objet Scope
- logits : 2D avec forme
[batch_size, num_classes]
.
Retours :
-
Output
: Même forme quelogits
.
Constructeurs et Destructeurs | |
---|---|
Softmax (const :: tensorflow::Scope & scope, :: tensorflow::Input logits) |
Attributs publics | |
---|---|
operation | |
softmax |
Fonctions publiques | |
---|---|
node () const | ::tensorflow::Node * |
operator::tensorflow::Input () const | |
operator::tensorflow::Output () const |
Attributs publics
opération
Operation operation
softmax
::tensorflow::Output softmax
Fonctions publiques
Softmax
Softmax( const ::tensorflow::Scope & scope, ::tensorflow::Input logits )
nœud
::tensorflow::Node * node() const
opérateur :: tensorflow :: Entrée
operator::tensorflow::Input() const
opérateur :: tensorflow :: Sortie
operator::tensorflow::Output() const