स्टैनफोर्ड_कुका_मल्टीमॉडल_डेटासेट_रूपांतरित_बाहरी_से_आरएलडीएस

  • विवरण :

बल प्रतिक्रिया के साथ कुका इवा खूंटी सम्मिलन

विभाजित करना उदाहरण
'train' 3,000
  • फ़ीचर संरचना :
FeaturesDict({
    'episode_metadata': FeaturesDict({
    }),
    'steps': Dataset({
        'action': Tensor(shape=(4,), dtype=float32, description=Robot action, consists of [3x EEF position, 1x gripper open/close].),
        'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'contact': Tensor(shape=(50,), dtype=float32, description=Robot contact information.),
            'depth_image': Tensor(shape=(128, 128, 1), dtype=float32, description=Main depth camera observation.),
            'ee_forces_continuous': Tensor(shape=(50, 6), dtype=float32, description=Robot end-effector forces.),
            'ee_orientation': Tensor(shape=(4,), dtype=float32, description=Robot end-effector orientation quaternion.),
            'ee_orientation_vel': Tensor(shape=(3,), dtype=float32, description=Robot end-effector orientation velocity.),
            'ee_position': Tensor(shape=(3,), dtype=float32, description=Robot end-effector position.),
            'ee_vel': Tensor(shape=(3,), dtype=float32, description=Robot end-effector velocity.),
            'ee_yaw': Tensor(shape=(4,), dtype=float32, description=Robot end-effector yaw.),
            'ee_yaw_delta': Tensor(shape=(4,), dtype=float32, description=Robot end-effector yaw delta.),
            'image': Image(shape=(128, 128, 3), dtype=uint8, description=Main camera RGB observation.),
            'joint_pos': Tensor(shape=(7,), dtype=float32, description=Robot joint positions.),
            'joint_vel': Tensor(shape=(7,), dtype=float32, description=Robot joint velocities.),
            'optical_flow': Tensor(shape=(128, 128, 2), dtype=float32, description=Optical flow.),
            'state': Tensor(shape=(8,), dtype=float32, description=Robot proprioceptive information, [7x joint pos, 1x gripper open/close].),
        }),
        'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
    }),
})
  • फ़ीचर दस्तावेज़ीकरण :
विशेषता कक्षा आकार डीप्रकार विवरण
फीचर्सडिक्ट
एपिसोड_मेटाडेटा फीचर्सडिक्ट
कदम डेटासेट
कदम/कार्रवाई टेन्सर (4,) फ्लोट32 रोबोट कार्रवाई में [3x ईईएफ स्थिति, 1x ग्रिपर खुला/बंद] शामिल है।
कदम/छूट अदिश फ्लोट32 यदि छूट प्रदान की गई है, तो डिफ़ॉल्ट 1 है।
चरण/पहला है टेन्सर बूल
चरण/अंतिम है टेन्सर बूल
चरण/is_terminal टेन्सर बूल
चरण/भाषा_एम्बेडिंग टेन्सर (512,) फ्लोट32 कोना भाषा एम्बेडिंग. https://tfhub.dev/google/universal-sentence-encoder-large/5 देखें
चरण/भाषा_निर्देश मूलपाठ डोरी भाषा निर्देश.
कदम/अवलोकन फीचर्सडिक्ट
कदम/अवलोकन/संपर्क टेन्सर (50,) फ्लोट32 रोबोट संपर्क जानकारी.
चरण/अवलोकन/गहराई_छवि टेन्सर (128, 128, 1) फ्लोट32 मुख्य गहराई कैमरा अवलोकन।
चरण/अवलोकन/ee_forces_ निरंतर टेन्सर (50,6) फ्लोट32 रोबोट अंत-प्रभावक बल।
चरण/अवलोकन/ee_अभिविन्यास टेन्सर (4,) फ्लोट32 रोबोट एंड-इफ़ेक्टर ओरिएंटेशन क्वाटरनियन।
चरण/अवलोकन/ee_orientation_vel टेन्सर (3,) फ्लोट32 रोबोट अंत-प्रभावक अभिविन्यास वेग।
चरण/अवलोकन/ee_स्थिति टेन्सर (3,) फ्लोट32 रोबोट अंत-प्रभावक स्थिति.
चरण/अवलोकन/ee_vel टेन्सर (3,) फ्लोट32 रोबोट अंत-प्रभावक वेग.
चरण/अवलोकन/ee_yaw टेन्सर (4,) फ्लोट32 रोबोट अंत-प्रभावक यॉ।
चरण/अवलोकन/ee_yaw_delta टेन्सर (4,) फ्लोट32 रोबोट अंत-प्रभावक यॉ डेल्टा।
चरण/अवलोकन/छवि छवि (128, 128, 3) uint8 मुख्य कैमरा आरजीबी अवलोकन।
चरण/अवलोकन/joint_pos टेन्सर (7,) फ्लोट32 रोबोट संयुक्त स्थिति.
चरण/अवलोकन/joint_vel टेन्सर (7,) फ्लोट32 रोबोट संयुक्त वेग.
चरण/अवलोकन/ऑप्टिकल_फ्लो टेन्सर (128, 128, 2) फ्लोट32 ऑप्टिकल प्रवाह.
चरण/अवलोकन/स्थिति टेन्सर (8,) फ्लोट32 रोबोट प्रोप्रियोसेप्टिव जानकारी, [7x संयुक्त स्थिति, 1x ग्रिपर खुला/बंद]।
कदम/इनाम अदिश फ्लोट32 यदि प्रदान किया गया तो इनाम, डेमो के लिए अंतिम चरण पर 1।
  • पर्यवेक्षित कुंजियाँ ( as_supervised doc देखें): None

  • चित्र ( tfds.show_examples ): समर्थित नहीं है।

  • उदाहरण ( tfds.as_dataframe ): गुम है।

  • उद्धरण :

@inproceedings{lee2019icra,
  title={Making sense of vision and touch: Self-supervised learning of multimodal representations for contact-rich tasks},
  author={Lee, Michelle A and Zhu, Yuke and Srinivasan, Krishnan and Shah, Parth and Savarese, Silvio and Fei-Fei, Li and  Garg, Animesh and Bohg, Jeannette},
  booktitle={2019 IEEE International Conference on Robotics and Automation (ICRA)},
  year={2019},
  url={https://arxiv.org/abs/1810.10191}
}