Truy xuất các tham số nhúng SGD có hỗ trợ gỡ lỗi.
Một op lấy các tham số tối ưu hóa từ việc nhúng vào bộ nhớ máy chủ. Trước đó phải có op configureTPUEmbeddingHost để thiết lập cấu hình bảng nhúng chính xác. Ví dụ: op này được sử dụng để truy xuất các tham số đã cập nhật trước khi lưu điểm kiểm tra.
Các lớp lồng nhau
lớp học | Truy xuấtTPUEnhúngStochasticGradientDescentParametersGradAccumDebug.Options | Các thuộc tính tùy chọn cho RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Hằng số
Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công cộng
static RetrieveTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | config (Cấu hình chuỗi) |
RetrievetTPUEembeddingStochasticGradientDescentParametersGradAccumDebug | tạo ( Phạm vi phạm vi, numShards dài, shardId dài, Tùy chọn... tùy chọn) Phương thức gốc để tạo một lớp bao gồm một thao tác RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug mới. |
Đầu ra < TFloat32 > | gradient Tích lũy () Tham số gradient_accumulators được cập nhật bằng thuật toán tối ưu hóa Adadelta. |
Đầu ra < TFloat32 > | thông số () Các tham số tham số được cập nhật bằng thuật toán tối ưu hóa giảm độ dốc ngẫu nhiên. |
tĩnh RetrieveTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Id bảng dài) |
tĩnh RetrieveTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | tên bảng (Tên bảng chuỗi) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công cộng
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (Cấu hình chuỗi)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug tạo ( Phạm vi phạm vi, Long numShards, Long shardId, Tùy chọn... tùy chọn)
Phương thức ban đầu để tạo một lớp bao gồm một thao tác RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
Đầu ra công khai < TFloat32 > gradientAccumulators ()
Tham số gradient_accumulators được cập nhật bằng thuật toán tối ưu hóa Adadelta.
Đầu ra công khai < TFloat32 > tham số ()
Các tham số tham số được cập nhật bằng thuật toán tối ưu hóa giảm độ dốc ngẫu nhiên.