แยกการไล่ระดับสีแบบกระจายเฉลี่ยใน SparseConditionalAccumulator
op จะบล็อกจนกว่าจะมีการสะสมการไล่ระดับสีที่เพียงพอ (เช่น มากกว่า num_required) หากตัวสะสมได้รวมการไล่ระดับสีที่ต้องการมากกว่า num_ รายการแล้ว ระบบจะส่งกลับค่าเฉลี่ยของการไล่ระดับสีที่สะสมไว้ นอกจากนี้ยังเพิ่ม global_step ที่บันทึกไว้ในแอคคูมูเลเตอร์ขึ้น 1 โดยอัตโนมัติ และรีเซ็ตผลรวมเป็น 0
ค่าคงที่
สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
คงที่ <T ขยาย TType > SparseAccumulatorTakeGradient <T> | สร้าง (ขอบเขต ขอบเขต ตัวดำเนินการ < TString > ตัว จัดการ ตัวดำเนินการ < TInt32 > numRequired คลาส<T> dtype) วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseAccumulatorTakeGradient ใหม่ |
เอาท์พุต <TInt64> | ดัชนี () ดัชนีค่าเฉลี่ยของการไล่ระดับสีแบบกระจายที่สะสม |
เอาท์พุต <TInt64> | รูปร่าง () รูปร่างของค่าเฉลี่ยของการไล่ระดับสีแบบเบาบางสะสม |
เอาท์พุต <T> | ค่า () ค่าเฉลี่ยของการไล่ระดับสีแบบเบาบางที่สะสม |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
วิธีการสาธารณะ
สร้าง SparseAccumulatorTakeGradient <T> สาธารณะแบบคงที่ (ขอบเขต ขอบเขต , ตัวดำเนินการ < TString > ตัวจัดการ, ตัวดำเนินการ < TInt32 > numRequired, คลาส <T> dtype)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ SparseAccumulatorTakeGradient ใหม่
พารามิเตอร์
ขอบเขต | ขอบเขตปัจจุบัน |
---|---|
รับมือ | หมายเลขอ้างอิงของ SparseConditionalAccumulator |
จำนวนจำเป็น | จำนวนการไล่ระดับสีที่ต้องการก่อนที่เราจะส่งคืนผลรวม |
ประเภท | ประเภทข้อมูลของการไล่ระดับสีแบบสะสม ต้องสอดคล้องกับประเภทของตัวสะสม |
การส่งคืน
- อินสแตนซ์ใหม่ของ SparseAccumulatorTakeGradient