Nhà xây dựng công cộng
Phương pháp công khai
static <T mở rộng TNumber , U mở rộng TNumber > Toán hạng <T> | softmaxCrossEntropyWithLogits ( Phạm vi phạm vi, nhãn Toán hạng <U>, nhật ký Toán hạng <T>, trục int) Tính toán entropy chéo softmax giữa logits và labels . |
Phương pháp kế thừa
Nhà xây dựng công cộng
công khai SoftmaxCrossEntropyWithLogits ()
Phương pháp công khai
public static Toán hạng <T> softmaxCrossEntropyWithLogits ( Phạm vi phạm vi, nhãn Toán hạng <U>, nhật ký Toán hạng <T>, trục int)
Tính toán entropy chéo softmax giữa logits
và labels
.
Đo lường sai số xác suất trong các nhiệm vụ phân loại riêng biệt trong đó các lớp loại trừ lẫn nhau (mỗi mục nằm trong chính xác một lớp). Ví dụ: mỗi hình ảnh CIFAR-10 được gắn nhãn bằng một và chỉ một nhãn: hình ảnh có thể là một con chó hoặc một chiếc xe tải, nhưng không được cả hai.
GHI CHÚ:
Mặc dù các lớp loại trừ lẫn nhau nhưng xác suất của chúng không nhất thiết phải như vậy. Tất cả những gì cần thiết là mỗi hàng labels
là một phân bố xác suất hợp lệ. Nếu không, việc tính toán gradient sẽ không chính xác.
Nếu sử dụng labels
độc quyền (trong đó một và chỉ một lớp là đúng tại một thời điểm), hãy xem ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits)
Cách sử dụng:
Operand<TFloat32> logits = tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } ); Operand<TFloat32> labels = tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } ); Operand<TFloat32> output = tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1); // output Shape = [2] // dataType = FLOAT (1) // values { 0.169846, 0.824745 }
Lan truyền ngược sẽ xảy ra ở cả logits
và labels
. Để không cho phép lan truyền ngược vào labels
, hãy chuyển các tenxơ nhãn qua tf.stopGradient
trước khi đưa nó vào hàm này.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
nhãn | Mỗi vectơ dọc theo thứ nguyên lớp phải chứa phân phối xác suất hợp lệ, ví dụ: trong trường hợp nhãn có hình dạng [batch_size, num_classes] , mỗi hàng labels[i] phải là phân phối xác suất hợp lệ. |
nhật ký | Kích hoạt trên mỗi nhãn, thường là đầu ra tuyến tính. Những năng lượng kích hoạt này được hiểu là xác suất nhật ký không chuẩn hóa. |
trục | Chiều kích lớp học. -1 là kích thước cuối cùng. |
Trả lại
- sự mất mát entropy chéo softmax. Kiểu của nó giống với
logits
và hình dạng của nó giống vớilabels
ngoại trừ việc nó không có chiều cuối cùng làlabels
.