แบ่งพาร์ติชัน `data` เป็นเทนเซอร์ `num_partitions` โดยใช้ดัชนีจาก `partitions`
สำหรับแต่ละทูเพิลดัชนี `js` ขนาด `partitions.ndim` ชิ้น `data[js, ...]` จะกลายเป็นส่วนหนึ่งของ `outputs[partitions[js]]` ชิ้นที่มี `partitions[js] = i` จะถูกวางไว้ใน `outputs[i]` ตามลำดับพจนานุกรมของ `js` และมิติแรกของ `outputs[i]` คือจำนวนรายการใน `partitions` เท่ากับ `ฉัน` ในรายละเอียด
outputs[i].shape = [sum(partitions == i)] + data.shape[partitions.ndim:]
outputs[i] = pack([data[js, ...] for js if partitions[js] == i])
ตัวอย่างเช่น:
# Scalar partitions.
partitions = 1
num_partitions = 2
data = [10, 20]
outputs[0] = [] # Empty with shape [0, 2]
outputs[1] = [[10, 20]]
# Vector partitions.
partitions = [0, 0, 1, 1, 0]
num_partitions = 2
data = [10, 20, 30, 40, 50]
outputs[0] = [10, 20, 50]
outputs[1] = [30, 40]
ค่าคงที่
สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
คงที่ <T ขยาย TType > DynamicPartition <T> | สร้าง (ขอบเขต ขอบเขต ข้อมูลตัว ถูกดำเนินการ <T> ตัวถูกดำเนินการ < TInt32 > พาร์ติชัน ยาว numPartitions) วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ DynamicPartition ใหม่ |
ตัววนซ้ำ < ตัวดำเนินการ <T>> | ตัววนซ้ำ () |
รายการ < เอาท์พุต <T>> | เอาท์พุท () |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
วิธีการสาธารณะ
สร้าง DynamicPartition <T> แบบคงที่สาธารณะ (ขอบเขต ขอบเขต , ข้อมูล Operand <T>, ตัวดำเนิน การ < TInt32 > พาร์ติชัน, พาร์ติชั่น numPartitions แบบยาว)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ DynamicPartition ใหม่
พารามิเตอร์
ขอบเขต | ขอบเขตปัจจุบัน |
---|---|
พาร์ติชัน | รูปร่างใดก็ได้ ดัชนีในช่วง `[0, num_partitions)` |
หมายเลขพาร์ติชั่น | จำนวนพาร์ติชันที่จะส่งออก |
การส่งคืน
- อินสแตนซ์ใหม่ของ DynamicPartition