ऑस्टिन_सिरियस_डेटासेट_कन्वर्टेड_एक्सटर्नली_टू_आरएलडीएस

  • विवरण :

फ्रेंका टेबलटॉप हेरफेर कार्य

विभाजित करना उदाहरण
'train' 559
  • फ़ीचर संरचना :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32, description=Robot action, consists of [3x ee relative pos, 3x ee relative rotation, 1x gripper action].),
        'action_mode': Tensor(shape=(1,), dtype=float32, description=Type of interaction. -1: initial human demonstration. 1: intervention. 0: autonomuos robot execution (includes pre-intervention class)),
        'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
        'intv_label': Tensor(shape=(1,), dtype=float32, description=Same as action_modes, except 15 timesteps preceding intervention are labeled as -10.),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'image': Image(shape=(84, 84, 3), dtype=uint8, description=Main camera RGB observation.),
            'state': Tensor(shape=(8,), dtype=float32, description=Default robot state, consists of [7x robot joint state, 1x gripper state].),
            'state_ee': Tensor(shape=(16,), dtype=float32, description=End-effector state, represented as 4x4 homogeneous transformation matrix of ee pose.),
            'state_gripper': Tensor(shape=(1,), dtype=float32, description=Robot gripper opening width. Ranges between ~0 (closed) to ~0.077 (open)),
            'state_joint': Tensor(shape=(7,), dtype=float32, description=Robot 7-dof joint information.),
            'wrist_image': Image(shape=(84, 84, 3), dtype=uint8, description=Wrist camera RGB observation.),
        }),
        'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
    }),
})
  • फ़ीचर दस्तावेज़ीकरण :
विशेषता कक्षा आकार डीप्रकार विवरण
फीचर्सडिक्ट
एपिसोड_मेटाडेटा फीचर्सडिक्ट
एपिसोड_मेटाडेटा/फ़ाइल_पथ मूलपाठ डोरी मूल डेटा फ़ाइल का पथ.
कदम डेटासेट
कदम/कार्रवाई टेन्सर (7,) फ्लोट32 रोबोट क्रिया में [3x ईई सापेक्ष स्थिति, 3x ईई सापेक्ष घुमाव, 1x ग्रिपर क्रिया] शामिल है।
चरण/कार्रवाई_मोड टेन्सर (1,) फ्लोट32 बातचीत का प्रकार. -1: प्रारंभिक मानव प्रदर्शन. 1: हस्तक्षेप. 0: ऑटोनोमुओस रोबोट निष्पादन (पूर्व-हस्तक्षेप वर्ग शामिल है)
कदम/छूट अदिश फ्लोट32 यदि छूट प्रदान की गई है, तो डिफ़ॉल्ट 1 है।
चरण/intv_label टेन्सर (1,) फ्लोट32 एक्शन_मोड के समान, हस्तक्षेप से पहले के 15 टाइमस्टेप्स को छोड़कर -10 के रूप में लेबल किया गया है।
चरण/पहला है टेन्सर बूल
चरण/अंतिम है टेन्सर बूल
चरण/is_terminal टेन्सर बूल
चरण/भाषा_एम्बेडिंग टेन्सर (512,) फ्लोट32 कोना भाषा एम्बेडिंग. https://tfhub.dev/google/universal-sentence-encoder-large/5 देखें
चरण/भाषा_निर्देश मूलपाठ डोरी भाषा निर्देश.
कदम/अवलोकन फीचर्सडिक्ट
चरण/अवलोकन/छवि छवि (84, 84, 3) uint8 मुख्य कैमरा आरजीबी अवलोकन।
चरण/अवलोकन/स्थिति टेन्सर (8,) फ्लोट32 डिफ़ॉल्ट रोबोट स्थिति में [7x रोबोट संयुक्त स्थिति, 1x ग्रिपर स्थिति] शामिल है।
चरण/अवलोकन/state_ee टेन्सर (16,) फ्लोट32 अंतिम-प्रभावक स्थिति, ई पोज़ के 4x4 सजातीय परिवर्तन मैट्रिक्स के रूप में दर्शायी जाती है।
चरण/अवलोकन/स्टेट_ग्रिपर टेन्सर (1,) फ्लोट32 रोबोट ग्रिपर खोलने की चौड़ाई। ~0 (बंद) से ~0.077 (खुला) के बीच रेंज
चरण/अवलोकन/state_joint टेन्सर (7,) फ्लोट32 रोबोट 7-डोफ़ संयुक्त जानकारी।
चरण/अवलोकन/कलाई_छवि छवि (84, 84, 3) uint8 कलाई कैमरा आरजीबी अवलोकन।
कदम/इनाम अदिश फ्लोट32 यदि प्रदान किया गया तो इनाम, डेमो के लिए अंतिम चरण पर 1।
  • उद्धरण :
@inproceedings{liu2022robot,
    title = {Robot Learning on the Job: Human-in-the-Loop Autonomy and Learning During Deployment},
    author = {Huihan Liu and Soroush Nasiriany and Lance Zhang and Zhiyao Bao and Yuke Zhu},
    booktitle = {Robotics: Science and Systems (RSS)},
    year = {2023}
}