kaist_nonprehensile_converted_externally_to_rlds

  • คำอธิบาย :

Franka จัดการกับวัตถุที่ไม่สามารถเข้าใจได้

  • หน้าแรก : --

  • ซอร์สโค้ด : tfds.robotics.rtx.KaistNonprehensileConvertedExternallyToRlds

  • รุ่น :

    • 0.1.0 (ค่าเริ่มต้น): การเปิดตัวครั้งแรก
  • ขนาดการดาวน์โหลด : Unknown size

  • ขนาดชุดข้อมูล : 11.71 GiB

  • แคชอัตโนมัติ ( เอกสาร ): No

  • แยก :

แยก ตัวอย่าง
'train' 201
  • โครงสร้างคุณสมบัติ :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(20,), dtype=float32, description=Robot action, consists of [3x end-effector position residual, 3x end-effector axis-angle residual, 7x robot joint k_p gain coefficient, 7x robot joint damping ratio coefficient].The action residuals are global, i.e. multiplied on theleft-hand side of the current end-effector state.),
        'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'image': Image(shape=(480, 640, 3), dtype=uint8, description=Main camera RGB observation.),
            'partial_pointcloud': Tensor(shape=(512, 3), dtype=float32, description=Partial pointcloud observation),
            'state': Tensor(shape=(21,), dtype=float32, description=Robot state, consists of [joint_states, end_effector_pose].Joint states are 14-dimensional, formatted in the order of [q_0, w_0, q_1, w_0, ...].In other words,  joint positions and velocities are interleaved.The end-effector pose is 7-dimensional, formatted in the order of [position, quaternion].The quaternion is formatted in (x,y,z,w) order. The end-effector pose references the tool frame, in the center of the two fingers of the gripper.),
        }),
        'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
    }),
})
  • เอกสารคุณสมบัติ :
คุณสมบัติ ระดับ รูปร่าง ประเภทD คำอธิบาย
คุณสมบัติDict
ตอนที่_ข้อมูลเมตา คุณสมบัติDict
ตอนที่_metadata/file_path ข้อความ เชือก เส้นทางไปยังไฟล์ข้อมูลต้นฉบับ
ขั้นตอน ชุดข้อมูล
ขั้นตอน/การดำเนินการ เทนเซอร์ (20,) ลอย32 การทำงานของหุ่นยนต์ ประกอบด้วย [ส่วนที่เหลือของตำแหน่งเอฟเฟกต์ปลาย 3x, ส่วนที่เหลือของแกน-มุมของเอฟเฟกต์ปลายเอฟเฟกต์ 3x, ข้อต่อหุ่นยนต์ k_p ที่ได้รับค่าสัมประสิทธิ์ 7x, สัมประสิทธิ์อัตราส่วนการทำให้หมาดๆ ของข้อต่อหุ่นยนต์ 7x] การกระทำที่เหลือเป็นแบบรวม กล่าวคือ คูณทางด้านซ้ายมือ ของสถานะเอ็ฟเฟ็กเตอร์ปัจจุบัน
ขั้นตอน/ส่วนลด สเกลาร์ ลอย32 ส่วนลดหากมีให้ ค่าเริ่มต้นคือ 1
ขั้นตอน/is_first เทนเซอร์ บูล
ขั้นตอน/is_last เทนเซอร์ บูล
ขั้นตอน/is_terminal เทนเซอร์ บูล
ขั้นตอน/ภาษา_embedding เทนเซอร์ (512,) ลอย32 การฝังภาษาโคน่า ดู https://tfhub.dev/google/universal-sentence-encoder-large/5
ขั้นตอน/Language_instruction ข้อความ เชือก การสอนภาษา.
ขั้นตอน/การสังเกต คุณสมบัติDict
ขั้นตอน/การสังเกต/ภาพ ภาพ (480, 640, 3) uint8 การสังเกต RGB ของกล้องหลัก
ขั้นตอน/การสังเกต/partial_pointcloud เทนเซอร์ (512, 3) ลอย32 การสังเกตพอยต์คลาวด์บางส่วน
ขั้นตอน/การสังเกต/สถานะ เทนเซอร์ (21,) ลอย32 สถานะของหุ่นยนต์ประกอบด้วย [joint_states, end_effor_pose] สถานะของข้อต่อเป็นแบบ 14 มิติ จัดรูปแบบตามลำดับ [q_0, w_0, q_1, w_0, ...] กล่าวอีกนัยหนึ่ง ตำแหน่งข้อต่อและความเร็วจะถูกสลับกัน ส่วนท้าย - ท่าเอฟเฟกต์เป็นแบบ 7 มิติ จัดรูปแบบตามลำดับ [ตำแหน่ง, ควอเทอร์เนียน] ควอเทอร์เนียนจัดรูปแบบตามลำดับ (x,y,z,w) ท่าทางเอฟเฟกต์ส่วนปลายอ้างอิงถึงกรอบเครื่องมือที่อยู่ตรงกลางของสองนิ้วของมือจับ
ขั้นตอน/รางวัล สเกลาร์ ลอย32 รางวัลหากมีให้ 1 ในขั้นตอนสุดท้ายสำหรับการสาธิต
  • การอ้างอิง :
@article{kimpre,
  title={Pre-and post-contact policy decomposition for non-prehensile manipulation with zero-shot sim-to-real transfer},
  author={Kim, Minchan and Han, Junhyek and Kim, Jaehyung and Kim, Beomjoon},
  booktitle={2023 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)},
  year={2023},
  organization={IEEE}
}