utokyo_xarm_pick_and_place_converted_externally_to_rlds

  • Description :

xArm sélectionnant et plaçant des objets

Diviser Exemples
'train' 92
'val' 10
  • Structure des fonctionnalités :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(7,), dtype=float32, description=Robot action, consists of [3x EEF position, 3x EEF orientation yaw/pitch/roll, 1x gripper open/close position].),
        'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'end_effector_pose': Tensor(shape=(6,), dtype=float32, description=Robot end effector pose, consists of [3x EEF position, 3x EEF orientation yaw/pitch/roll].),
            'hand_image': Image(shape=(224, 224, 3), dtype=uint8, description=Hand camera RGB observation.),
            'image': Image(shape=(224, 224, 3), dtype=uint8, description=Main camera RGB observation.),
            'image2': Image(shape=(224, 224, 3), dtype=uint8, description=Another camera RGB observation from different view point.),
            'joint_state': Tensor(shape=(14,), dtype=float32, description=Robot joint state, consists of [7x robot joint angles, 7x robot joint velocity].),
            'joint_trajectory': Tensor(shape=(21,), dtype=float32, description=Robot joint trajectory, consists of [7x robot joint angles, 7x robot joint velocity, 7x robot joint acceralation].),
        }),
        'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
    }),
})
  • Documentation des fonctionnalités :
Fonctionnalité Classe Forme Type D Description
FonctionnalitésDict
épisode_métadonnées FonctionnalitésDict
épisode_metadata/file_path Texte chaîne Chemin d'accès au fichier de données d'origine.
mesures Ensemble de données
étapes/actions Tenseur (7,) flotteur32 L'action du robot consiste en [3x positions EEF, 3x orientation EEF lacet/tangage/roulis, 1x position d'ouverture/fermeture de la pince].
étapes/remise Scalaire flotteur32 Remise si fournie, par défaut à 1.
étapes/is_first Tenseur bouffon
étapes/est_dernier Tenseur bouffon
étapes/is_terminal Tenseur bouffon
étapes/langue_embedding Tenseur (512,) flotteur32 Intégration du langage Kona. Voir https://tfhub.dev/google/universal-sentence-encoder-large/5
étapes/instruction_langue Texte chaîne Enseignement des langues.
étapes/observation FonctionnalitésDict
étapes/observation/end_effector_pose Tenseur (6,) flotteur32 Pose de l'effecteur terminal du robot, composée de [3x position EEF, 3x orientation EEF lacet/tangage/roulis].
étapes/observation/hand_image Image (224, 224, 3) uint8 Observation RVB par caméra manuelle.
étapes/observation/image Image (224, 224, 3) uint8 Observation RVB de la caméra principale.
étapes/observation/image2 Image (224, 224, 3) uint8 Une autre observation RVB de la caméra sous un point de vue différent.
étapes/observation/joint_state Tenseur (14,) flotteur32 L'état de l'articulation du robot comprend [7x angles d'articulation du robot, 7x vitesse de l'articulation du robot].
étapes/observation/joint_trajectory Tenseur (21,) flotteur32 La trajectoire de l'articulation du robot comprend [7x angles d'articulation du robot, 7x vitesse de l'articulation du robot, 7x accélération de l'articulation du robot].
étapes/récompense Scalaire flotteur32 Récompense si fournie, 1 à la dernière étape pour les démos.
@misc{matsushima2023weblab,
  title={Weblab xArm Dataset},
  author={Tatsuya Matsushima and Hiroki Furuta and Yusuke Iwasawa and Yutaka Matsuo},
  year={2023},
}