dòng chảy căng:: ôi:: SparseSoftmaxCrossEntropyWithLogits
#include <nn_ops.h>
Tính toán chi phí entropy chéo softmax và độ dốc để truyền ngược.
Bản tóm tắt
Không giống như SoftmaxCrossEntropyWithLogits
, thao tác này không chấp nhận ma trận xác suất nhãn mà thay vào đó là một nhãn duy nhất cho mỗi hàng đối tượng. Nhãn này được coi là có xác suất 1,0 cho hàng đã cho.
Đầu vào là logit, không phải xác suất.
Lập luận:
- phạm vi: Một đối tượng Phạm vi
- các tính năng: ma trận batch_size x num_classes
- nhãn: vectơ batch_size có giá trị trong [0, num_classes). Đây là nhãn cho mục nhập minibatch nhất định.
Trả về:
- Mất
Output
: Mất mỗi ví dụ (vectơ batch_size). - Backprop
Output
: độ dốc lan truyền ngược (ma trận batch_size x num_classes).
Hàm tạo và hàm hủy | |
---|---|
SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels) |
Thuộc tính công khai | |
---|---|
backprop | |
loss | |
operation |
Thuộc tính công khai
chống đỡ sau lưng
::tensorflow::Output backprop
sự mất mát
::tensorflow::Output loss
hoạt động
Operation operation
Chức năng công cộng
SparseSoftmaxCrossEntropyWithLogits
SparseSoftmaxCrossEntropyWithLogits( const ::tensorflow::Scope & scope, ::tensorflow::Input features, ::tensorflow::Input labels )