- Descrizione :
Set di dati SIM di un singolo braccio robotico che esegue attività da tavolo generate proceduralmente con istruzioni multimodali, oltre 600.000 traiettorie
Pagina iniziale : https://vimalabs.github.io/
Codice sorgente :
tfds.robotics.rtx.VimaConvertedExternallyToRlds
Versioni :
-
0.1.0
(predefinito): versione iniziale.
-
Dimensioni del download :
Unknown size
Dimensioni del set di dati :
Unknown size
Memorizzato automaticamente nella cache ( documentazione ): sconosciuto
Divide :
Diviso | Esempi |
---|
- Struttura delle caratteristiche :
FeaturesDict({
'episode_metadata': FeaturesDict({
'action_bounds': FeaturesDict({
'high': Tensor(shape=(3,), dtype=float32),
'low': Tensor(shape=(3,), dtype=float32),
}),
'end-effector type': string,
'failure': Scalar(shape=(), dtype=bool),
'file_path': string,
'n_objects': Scalar(shape=(), dtype=int64),
'num_steps': Scalar(shape=(), dtype=int64),
'robot_components_seg_ids': Sequence(Scalar(shape=(), dtype=int64)),
'seed': Scalar(shape=(), dtype=int64),
'success': Scalar(shape=(), dtype=bool),
'task': string,
}),
'steps': Dataset({
'action': FeaturesDict({
'pose0_position': Tensor(shape=(3,), dtype=float32),
'pose0_rotation': Tensor(shape=(4,), dtype=float32),
'pose1_position': Tensor(shape=(3,), dtype=float32),
'pose1_rotation': Tensor(shape=(4,), dtype=float32),
}),
'discount': Scalar(shape=(), dtype=float32),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'multimodal_instruction': string,
'multimodal_instruction_assets': FeaturesDict({
'asset_type': Sequence(string),
'frontal_image': Sequence(Tensor(shape=(128, 256, 3), dtype=uint8)),
'frontal_segmentation': Sequence(Tensor(shape=(128, 256), dtype=uint8)),
'image': Sequence(Tensor(shape=(128, 256, 3), dtype=uint8)),
'key_name': Sequence(string),
'segmentation': Sequence(Tensor(shape=(128, 256), dtype=uint8)),
'segmentation_obj_info': Sequence({
'obj_name': Sequence(string),
'segm_id': Sequence(Scalar(shape=(), dtype=int64)),
'texture_name': Sequence(string),
}),
}),
'observation': FeaturesDict({
'ee': int64,
'frontal_image': Tensor(shape=(128, 256, 3), dtype=uint8),
'frontal_segmentation': Tensor(shape=(128, 256), dtype=uint8),
'image': Tensor(shape=(128, 256, 3), dtype=uint8),
'segmentation': Tensor(shape=(128, 256), dtype=uint8),
'segmentation_obj_info': FeaturesDict({
'obj_name': Sequence(string),
'segm_id': Sequence(Scalar(shape=(), dtype=int64)),
'texture_name': Sequence(string),
}),
}),
'reward': Scalar(shape=(), dtype=float32),
}),
})
- Documentazione delle funzionalità :
Caratteristica | Classe | Forma | Tipo D | Descrizione |
---|---|---|---|---|
CaratteristicheDict | ||||
metadati_episodio | CaratteristicheDict | |||
Episode_metadata/action_bounds | CaratteristicheDict | |||
Episode_metadata/action_bounds/high | Tensore | (3,) | float32 | |
Episode_metadata/action_bounds/low | Tensore | (3,) | float32 | |
tipo di metadati_episodio/effettore finale | Tensore | corda | ||
metadati_episodio/errore | Scalare | bool | ||
metadati_episodio/percorso_file | Tensore | corda | ||
metadati_episodio/n_oggetti | Scalare | int64 | ||
metadati_episodio/num_passi | Scalare | int64 | ||
Episode_metadata/robot_components_seg_ids | Sequenza (scalare) | (Nessuno,) | int64 | |
metadati_episodio/seme | Scalare | int64 | ||
metadati_episodio/successo | Scalare | bool | ||
metadati_episodio/attività | Tensore | corda | ||
passi | Set di dati | |||
passi/azione | CaratteristicheDict | |||
passi/azione/pose0_posizione | Tensore | (3,) | float32 | |
passi/azione/pose0_rotazione | Tensore | (4,) | float32 | |
passi/azione/posa1_posizione | Tensore | (3,) | float32 | |
passi/azione/posa1_rotazione | Tensore | (4,) | float32 | |
passi/sconto | Scalare | float32 | ||
passi/è_primo | Tensore | bool | ||
passi/è_ultimo | Tensore | bool | ||
passi/è_terminale | Tensore | bool | ||
passi/istruzione_multimodale | Tensore | corda | ||
passi/multimodal_instruction_assets | CaratteristicheDict | |||
passi/multimodal_instruction_assets/asset_type | Sequenza (Tensore) | (Nessuno,) | corda | |
passaggi/multimodal_instruction_assets/frontal_image | Sequenza (Tensore) | (Nessuno, 128, 256, 3) | uint8 | |
passaggi/multimodal_instruction_assets/frontal_segmentation | Sequenza (Tensore) | (Nessuno, 128, 256) | uint8 | |
passaggi/multimodal_instruction_assets/image | Sequenza (Tensore) | (Nessuno, 128, 256, 3) | uint8 | |
passi/multimodal_instruction_assets/key_name | Sequenza (Tensore) | (Nessuno,) | corda | |
passi/multimodal_instruction_assets/segmentazione | Sequenza (Tensore) | (Nessuno, 128, 256) | uint8 | |
passaggi/multimodal_instruction_assets/segmentation_obj_info | Sequenza | |||
passaggi/multimodal_instruction_assets/segmentation_obj_info/obj_name | Sequenza (Tensore) | (Nessuno,) | corda | |
passaggi/multimodal_instruction_assets/segmentation_obj_info/segm_id | Sequenza (scalare) | (Nessuno,) | int64 | |
passaggi/multimodal_instruction_assets/segmentation_obj_info/texture_name | Sequenza (Tensore) | (Nessuno,) | corda | |
passi/osservazione | CaratteristicheDict | |||
passi/osservazione/ee | Tensore | int64 | ||
passi/osservazione/immagine_frontale | Tensore | (128, 256, 3) | uint8 | |
passi/osservazione/segmentazione_frontale | Tensore | (128, 256) | uint8 | |
passi/osservazione/immagine | Tensore | (128, 256, 3) | uint8 | |
passaggi/osservazione/segmentazione | Tensore | (128, 256) | uint8 | |
passi/osservazione/segmentazione_obj_info | CaratteristicheDict | |||
passi/osservazione/segmentazione_obj_info/obj_name | Sequenza (Tensore) | (Nessuno,) | corda | |
passaggi/osservazione/segmentation_obj_info/segm_id | Sequenza (scalare) | (Nessuno,) | int64 | |
passi/osservazione/segmentation_obj_info/texture_name | Sequenza (Tensore) | (Nessuno,) | corda | |
passi/ricompensa | Scalare | float32 |
Chiavi supervisionate (vedi il documento
as_supervised
):None
Figura ( tfds.show_examples ): non supportato.
Esempi ( tfds.as_dataframe ): Mancante.
Citazione :
@inproceedings{jiang2023vima, title = {VIMA: General Robot Manipulation with Multimodal Prompts}, author = {Yunfan Jiang and Agrim Gupta and Zichen Zhang and Guanzhi Wang and Yongqiang Dou and Yanjun Chen and Li Fei-Fei and Anima Anandkumar and Yuke Zhu and Linxi Fan}, booktitle = {Fortieth International Conference on Machine Learning}, year = {2023}. }