- Description :
Ces ensembles de données ont été créés avec l'environnement PickPlaceCan du simulateur de bras robotique robosuite . Les ensembles de données humaines ont été enregistrés par un seul opérateur à l’aide du RLDS Creator et d’un contrôleur de manette de jeu.
Les ensembles de données synthétiques ont été enregistrés à l'aide de la bibliothèque EnvLogger .
Les ensembles de données suivent le format RLDS pour représenter les étapes et les épisodes.
Les épisodes comprennent 400 étapes. Dans chaque épisode, une balise est ajoutée lorsque la tâche est terminée, cette balise est stockée dans le cadre des métadonnées de l'étape personnalisée.
Notez qu'en raison de la dépendance d'EnvLogger, la génération de cet ensemble de données est actuellement prise en charge uniquement sur les environnements Linux.
Code source :
tfds.rlds.datasets.robosuite_panda_pick_place_can.RobosuitePandaPickPlaceCan
Versions :
-
1.0.0
(par défaut) : version initiale.
-
Mise en cache automatique ( documentation ) : Non
Clés supervisées (Voir doc
as_supervised
) :None
Figure ( tfds.show_examples ) : non pris en charge.
Citation :
@misc{ramos2021rlds,
title={RLDS: an Ecosystem to Generate, Share and Use Datasets in Reinforcement Learning},
author={Sabela Ramos and Sertan Girgin and Léonard Hussenot and Damien Vincent and Hanna Yakubovich and Daniel Toyama and Anita Gergely and Piotr Stanczyk and Raphael Marinier and Jeremiah Harmsen and Olivier Pietquin and Nikola Momchev},
year={2021},
eprint={2111.02767},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
robosuite_panda_pick_place_can/human_dc29b40a (configuration par défaut)
Description de la configuration : Ensemble de données généré par l'homme (50 épisodes).
Page d'accueil : https://github.com/google-research/rlds
Taille du téléchargement :
96.67 MiB
Taille de l'ensemble de données :
407.24 MiB
Divisions :
Diviser | Exemples |
---|---|
'train' | 50 |
- Structure des fonctionnalités :
FeaturesDict({
'agent_id': string,
'episode_id': string,
'episode_index': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': float64,
'image': Image(shape=(None, None, 3), dtype=uint8),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=float64),
'Can_quat': Tensor(shape=(4,), dtype=float64),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'object-state': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
}),
'reward': float64,
'tag:placed': bool,
}),
})
- Documentation des fonctionnalités :
Fonctionnalité | Classe | Forme | Type D | Description |
---|---|---|---|---|
FonctionnalitésDict | ||||
agent_id | Tenseur | chaîne | ||
épisode_id | Tenseur | chaîne | ||
épisode_index | Tenseur | int32 | ||
pas | Base de données | |||
étapes/actions | Tenseur | (7,) | flotteur64 | |
étapes/remise | Tenseur | flotteur64 | ||
étapes/image | Image | (Aucun, Aucun, 3) | uint8 | |
étapes/is_first | Tenseur | bouffon | ||
étapes/est_dernier | Tenseur | bouffon | ||
étapes/is_terminal | Tenseur | bouffon | ||
étapes/observation | FonctionnalitésDict | |||
étapes/observation/Can_pos | Tenseur | (3,) | flotteur64 | |
étapes/observation/Can_quat | Tenseur | (4,) | flotteur64 | |
étapes/observation/Can_to_robot0_eef_pos | Tenseur | (3,) | flotteur64 | |
étapes/observation/Can_to_robot0_eef_quat | Tenseur | (4,) | flotteur32 | |
étapes/observation/état-objet | Tenseur | (14,) | flotteur64 | |
étapes/observation/robot0_eef_pos | Tenseur | (3,) | flotteur64 | |
étapes/observation/robot0_eef_quat | Tenseur | (4,) | flotteur64 | |
étapes/observation/robot0_gripper_qpos | Tenseur | (2,) | flotteur64 | |
étapes/observation/robot0_gripper_qvel | Tenseur | (2,) | flotteur64 | |
étapes/observation/robot0_joint_pos_cos | Tenseur | (7,) | flotteur64 | |
étapes/observation/robot0_joint_pos_sin | Tenseur | (7,) | flotteur64 | |
étapes/observation/robot0_joint_vel | Tenseur | (7,) | flotteur64 | |
étapes/observation/robot0_proprio-state | Tenseur | (32,) | flotteur64 | |
étapes/récompense | Tenseur | flotteur64 | ||
étapes/tag:placé | Tenseur | bouffon |
- Exemples ( tfds.as_dataframe ) :
robosuite_panda_pick_place_can/human_images_dc29b40a
Description de la configuration : Ensemble de données généré par l'homme, comprenant des images avec différents angles de caméra dans l'observation. Notez que la génération peut prendre un certain temps.
Page d'accueil : https://www.tensorflow.org/datasets/catalog/robosuite_panda_pick_place_can
Taille du téléchargement :
10.95 GiB
Taille de l'ensemble de données :
7.53 GiB
Divisions :
Diviser | Exemples |
---|---|
'train' | 50 |
- Structure des fonctionnalités :
FeaturesDict({
'agent_id': string,
'episode_id': string,
'episode_index': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float64),
'discount': float64,
'image': Image(shape=(None, None, 3), dtype=uint8),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=float64),
'Can_quat': Tensor(shape=(4,), dtype=float64),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'agentview_image': Image(shape=(256, 256, 3), dtype=uint8),
'birdview_image': Image(shape=(256, 256, 3), dtype=uint8),
'object-state': Tensor(shape=(14,), dtype=float64),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float64),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float64),
'robot0_eye_in_hand_image': Image(shape=(256, 256, 3), dtype=uint8),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float64),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float64),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float64),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float64),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float64),
'robot0_proprio-state': Tensor(shape=(32,), dtype=float64),
'robot0_robotview_image': Image(shape=(256, 256, 3), dtype=uint8),
}),
'reward': float64,
'tag:placed': bool,
}),
})
- Documentation des fonctionnalités :
Fonctionnalité | Classe | Forme | Type D | Description |
---|---|---|---|---|
FonctionnalitésDict | ||||
agent_id | Tenseur | chaîne | ||
épisode_id | Tenseur | chaîne | ||
épisode_index | Tenseur | int32 | ||
pas | Base de données | |||
étapes/actions | Tenseur | (7,) | flotteur64 | |
étapes/remise | Tenseur | flotteur64 | ||
étapes/image | Image | (Aucun, Aucun, 3) | uint8 | |
étapes/is_first | Tenseur | bouffon | ||
étapes/est_dernier | Tenseur | bouffon | ||
étapes/is_terminal | Tenseur | bouffon | ||
étapes/observation | FonctionnalitésDict | |||
étapes/observation/Can_pos | Tenseur | (3,) | flotteur64 | |
étapes/observation/Can_quat | Tenseur | (4,) | flotteur64 | |
étapes/observation/Can_to_robot0_eef_pos | Tenseur | (3,) | flotteur64 | |
étapes/observation/Can_to_robot0_eef_quat | Tenseur | (4,) | flotteur32 | |
étapes/observation/agentview_image | Image | (256, 256, 3) | uint8 | |
étapes/observation/birdview_image | Image | (256, 256, 3) | uint8 | |
étapes/observation/état-objet | Tenseur | (14,) | flotteur64 | |
étapes/observation/robot0_eef_pos | Tenseur | (3,) | flotteur64 | |
étapes/observation/robot0_eef_quat | Tenseur | (4,) | flotteur64 | |
étapes/observation/robot0_eye_in_hand_image | Image | (256, 256, 3) | uint8 | |
étapes/observation/robot0_gripper_qpos | Tenseur | (2,) | flotteur64 | |
étapes/observation/robot0_gripper_qvel | Tenseur | (2,) | flotteur64 | |
étapes/observation/robot0_joint_pos_cos | Tenseur | (7,) | flotteur64 | |
étapes/observation/robot0_joint_pos_sin | Tenseur | (7,) | flotteur64 | |
étapes/observation/robot0_joint_vel | Tenseur | (7,) | flotteur64 | |
étapes/observation/robot0_proprio-state | Tenseur | (32,) | flotteur64 | |
étapes/observation/robot0_robotview_image | Image | (256, 256, 3) | uint8 | |
étapes/récompense | Tenseur | flotteur64 | ||
étapes/tag:placé | Tenseur | bouffon |
- Exemples ( tfds.as_dataframe ) :
robosuite_panda_pick_place_can/synthetic_stochastic_sac_afe13968
Description de la configuration : Ensemble de données synthétiques généré par un agent stochastique formé avec SAC (200 épisodes).
Page d'accueil : https://github.com/google-research/rlds
Taille du téléchargement :
144.44 MiB
Taille de l'ensemble de données :
622.86 MiB
Divisions :
Diviser | Exemples |
---|---|
'train' | 200 |
- Structure des fonctionnalités :
FeaturesDict({
'agent_id': string,
'episode_id': string,
'episode_index': int32,
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float32),
'discount': float64,
'image': Image(shape=(None, None, 3), dtype=uint8),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': FeaturesDict({
'Can_pos': Tensor(shape=(3,), dtype=float32),
'Can_quat': Tensor(shape=(4,), dtype=float32),
'Can_to_robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
'Can_to_robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'object-state': Tensor(shape=(14,), dtype=float32),
'robot0_eef_pos': Tensor(shape=(3,), dtype=float32),
'robot0_eef_quat': Tensor(shape=(4,), dtype=float32),
'robot0_gripper_qpos': Tensor(shape=(2,), dtype=float32),
'robot0_gripper_qvel': Tensor(shape=(2,), dtype=float32),
'robot0_joint_pos_cos': Tensor(shape=(7,), dtype=float32),
'robot0_joint_pos_sin': Tensor(shape=(7,), dtype=float32),
'robot0_joint_vel': Tensor(shape=(7,), dtype=float32),
'robot0_proprio-state': Tensor(shape=(32,), dtype=float32),
}),
'reward': float64,
'tag:placed': bool,
}),
})
- Documentation des fonctionnalités :
Fonctionnalité | Classe | Forme | Type D | Description |
---|---|---|---|---|
FonctionnalitésDict | ||||
agent_id | Tenseur | chaîne | ||
épisode_id | Tenseur | chaîne | ||
épisode_index | Tenseur | int32 | ||
pas | Base de données | |||
étapes/actions | Tenseur | (7,) | flotteur32 | |
étapes/remise | Tenseur | flotteur64 | ||
étapes/image | Image | (Aucun, Aucun, 3) | uint8 | |
étapes/is_first | Tenseur | bouffon | ||
étapes/est_dernier | Tenseur | bouffon | ||
étapes/is_terminal | Tenseur | bouffon | ||
étapes/observation | FonctionnalitésDict | |||
étapes/observation/Can_pos | Tenseur | (3,) | flotteur32 | |
étapes/observation/Can_quat | Tenseur | (4,) | flotteur32 | |
étapes/observation/Can_to_robot0_eef_pos | Tenseur | (3,) | flotteur32 | |
étapes/observation/Can_to_robot0_eef_quat | Tenseur | (4,) | flotteur32 | |
étapes/observation/état-objet | Tenseur | (14,) | flotteur32 | |
étapes/observation/robot0_eef_pos | Tenseur | (3,) | flotteur32 | |
étapes/observation/robot0_eef_quat | Tenseur | (4,) | flotteur32 | |
étapes/observation/robot0_gripper_qpos | Tenseur | (2,) | flotteur32 | |
étapes/observation/robot0_gripper_qvel | Tenseur | (2,) | flotteur32 | |
étapes/observation/robot0_joint_pos_cos | Tenseur | (7,) | flotteur32 | |
étapes/observation/robot0_joint_pos_sin | Tenseur | (7,) | flotteur32 | |
étapes/observation/robot0_joint_vel | Tenseur | (7,) | flotteur32 | |
étapes/observation/robot0_proprio-state | Tenseur | (32,) | flotteur32 | |
étapes/récompense | Tenseur | flotteur64 | ||
étapes/tag:placé | Tenseur | bouffon |
- Exemples ( tfds.as_dataframe ) :