flux tensoriel : : opérations : : Softmax

#include <nn_ops.h>

Calcule les activations softmax.

Résumé

Pour chaque lot i et classe j nous avons

$$softmax[i, j] = exp(logits[i, j]) / sum_j(exp(logits[i, j]))$$

Arguments :

  • scope : un objet Scope
  • logits : 2D avec forme [batch_size, num_classes] .

Retours :

  • Output : Même forme que logits .

Constructeurs et Destructeurs

Softmax (const :: tensorflow::Scope & scope, :: tensorflow::Input logits)

Attributs publics

operation
softmax

Fonctions publiques

node () const
::tensorflow::Node *
operator::tensorflow::Input () const
operator::tensorflow::Output () const

Attributs publics

opération

Operation operation

softmax

::tensorflow::Output softmax

Fonctions publiques

Softmax

 Softmax(
  const ::tensorflow::Scope & scope,
  ::tensorflow::Input logits
)

nœud

::tensorflow::Node * node() const 

opérateur :: tensorflow :: Entrée

 operator::tensorflow::Input() const 

opérateur :: tensorflow :: Sortie

 operator::tensorflow::Output() const