Lô tất cả các tensor đầu vào không xác định.
Khi nhiều phiên bản của Op này đang được chạy đồng thời với cùng một vùng chứa/shared_name trong cùng một thiết bị, một số sẽ xuất ra Tensors có hình dạng bằng 0 và một số khác sẽ xuất ra Tensors có kích thước lên tới max_batch_size.
Tất cả các Tensor trong in_tensor đều được nhóm lại với nhau (vì vậy, ví dụ: các nhãn và tính năng phải được nhóm lại với một phiên bản duy nhất của thao tác này.
Mỗi lệnh gọi lô phát ra một đại lượng `id` sẽ được sử dụng để xác định lệnh gọi cụ thể này khi thực hiện hủy ghép hoặc độ dốc của nó.
Mỗi op phát ra một lô không trống cũng sẽ phát ra một batch_index Tensor không trống, là một ma trận [K, 3] trong đó mỗi hàng chứa id, điểm bắt đầu và độ dài của các phần tử của lệnh gọi có trong mỗi bộ Tensors có trong batched_tensor.
Các tensor theo đợt được nối dọc theo chiều thứ nhất và tất cả các tensor trong in_tensor phải có chiều thứ nhất có cùng kích thước.
in_tensors: Các tensor được phân nhóm. num_batch_threads: Số lượng luồng lập lịch để xử lý các lô công việc. Xác định số lượng lô được xử lý song song. max_batch_size: Kích thước lô sẽ không bao giờ lớn hơn kích thước này. batch_timeout_micros: Số micro giây tối đa phải đợi trước khi xuất ra một lô chưa hoàn chỉnh. allow_batch_sizes: Danh sách tùy chọn kích thước lô được phép. Nếu để trống thì không làm gì cả. Mặt khác, cung cấp danh sách các kích thước lô, khiến op đệm các lô lên đến một trong các kích thước đó. Các mục nhập phải tăng đều đặn và mục nhập cuối cùng phải bằng max_batch_size. grad_timeout_micros: Thời gian chờ sử dụng cho gradient. Xem Hủy lô. batched_tensor: Hoặc là tensor trống hoặc một loạt tensor được nối. batch_index: Nếu out_tensors không trống, có thông tin để đảo ngược nó. container: Kiểm soát phạm vi chia sẻ của lô này. id: luôn chứa một đại lượng vô hướng có ID duy nhất cho lệnh gọi Batch này. Shared_name: Các phiên bản batch đang chạy đồng thời trong cùng một thiết bị có cùng vùng chứa và Shared_name sẽ gộp các phần tử của chúng lại với nhau. Nếu để trống, tên op sẽ được dùng làm tên chia sẻ. T: các loại tensor cần phân cụm.
Các lớp lồng nhau
lớp học | Batch.Options | Thuộc tính tùy chọn cho Batch |
Hằng số
Sợi dây | OP_NAME | Tên của op này, được biết đến bởi công cụ lõi TensorFlow |
Phương pháp công cộng
Batch.Options tĩnh | allowBatchSizes (Danh sách<Long> allowBatchSizes) |
Đầu ra < TInt64 > | lô Index () |
Danh sách< Đầu ra <?>> | |
Batch.Options tĩnh | batchingQueue (Chuỗi batchingQueue) |
Batch.Options tĩnh | vùng chứa (Vùng chứa chuỗi) |
Lô tĩnh | tạo ( Phạm vi phạm vi, Iterable< Toán hạng <?>> inTensors, Long numBatchThreads, Long maxBatchSize, Long batchTimeoutMicros, Long gradTimeoutMicros, Options... tùy chọn) Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác Batch mới. |
Đầu ra < TInt64 > | nhận dạng () |
Batch.Options tĩnh | maxEnqueuedBatches (MaxEnqueuedBatches dài) |
Batch.Options tĩnh | tên chia sẻ (Chuỗi tên chia sẻ) |
Phương pháp kế thừa
Hằng số
Chuỗi cuối cùng tĩnh công khai OP_NAME
Tên của op này, được biết đến bởi công cụ lõi TensorFlow
Phương pháp công cộng
tạo hàng loạt tĩnh công khai (Phạm vi phạm vi , Iterable< Toán hạng <?>> inTensors, Long numBatchThreads, Long maxBatchSize, Long batchTimeoutMicros, Long gradTimeoutMicros, Tùy chọn... tùy chọn)
Phương thức xuất xưởng để tạo một lớp bao bọc một thao tác Batch mới.
Thông số
phạm vi | phạm vi hiện tại |
---|---|
tùy chọn | mang các giá trị thuộc tính tùy chọn |
Trả lại
- một phiên bản mới của Batch