- Descripción :
Conjunto de datos SIM de un solo brazo robótico que realiza tareas de mesa generadas por procedimientos con indicaciones multimodales, más de 600.000 trayectorias
Página de inicio : https://vimalabs.github.io/
Código fuente :
tfds.robotics.rtx.VimaConvertedExternallyToRlds
Versiones :
-
0.1.0
(predeterminado): versión inicial.
-
Tamaño de descarga :
Unknown size
Tamaño del conjunto de datos :
Unknown size
Almacenamiento en caché automático ( documentación ): Desconocido
Divisiones :
Dividir | Ejemplos |
---|
- Estructura de características :
FeaturesDict({
'episode_metadata': FeaturesDict({
'action_bounds': FeaturesDict({
'high': Tensor(shape=(3,), dtype=float32),
'low': Tensor(shape=(3,), dtype=float32),
}),
'end-effector type': string,
'failure': Scalar(shape=(), dtype=bool),
'file_path': string,
'n_objects': Scalar(shape=(), dtype=int64),
'num_steps': Scalar(shape=(), dtype=int64),
'robot_components_seg_ids': Sequence(Scalar(shape=(), dtype=int64)),
'seed': Scalar(shape=(), dtype=int64),
'success': Scalar(shape=(), dtype=bool),
'task': string,
}),
'steps': Dataset({
'action': FeaturesDict({
'pose0_position': Tensor(shape=(3,), dtype=float32),
'pose0_rotation': Tensor(shape=(4,), dtype=float32),
'pose1_position': Tensor(shape=(3,), dtype=float32),
'pose1_rotation': Tensor(shape=(4,), dtype=float32),
}),
'discount': Scalar(shape=(), dtype=float32),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'multimodal_instruction': string,
'multimodal_instruction_assets': FeaturesDict({
'asset_type': Sequence(string),
'frontal_image': Sequence(Tensor(shape=(128, 256, 3), dtype=uint8)),
'frontal_segmentation': Sequence(Tensor(shape=(128, 256), dtype=uint8)),
'image': Sequence(Tensor(shape=(128, 256, 3), dtype=uint8)),
'key_name': Sequence(string),
'segmentation': Sequence(Tensor(shape=(128, 256), dtype=uint8)),
'segmentation_obj_info': Sequence({
'obj_name': Sequence(string),
'segm_id': Sequence(Scalar(shape=(), dtype=int64)),
'texture_name': Sequence(string),
}),
}),
'observation': FeaturesDict({
'ee': int64,
'frontal_image': Tensor(shape=(128, 256, 3), dtype=uint8),
'frontal_segmentation': Tensor(shape=(128, 256), dtype=uint8),
'image': Tensor(shape=(128, 256, 3), dtype=uint8),
'segmentation': Tensor(shape=(128, 256), dtype=uint8),
'segmentation_obj_info': FeaturesDict({
'obj_name': Sequence(string),
'segm_id': Sequence(Scalar(shape=(), dtype=int64)),
'texture_name': Sequence(string),
}),
}),
'reward': Scalar(shape=(), dtype=float32),
}),
})
- Documentación de funciones :
Característica | Clase | Forma | tipo D | Descripción |
---|---|---|---|---|
FuncionesDict | ||||
episodio_metadatos | FuncionesDict | |||
metadatos_episodio/límites_acción | FuncionesDict | |||
metadatos_episodio/límites_acción/alto | Tensor | (3,) | flotador32 | |
metadatos_episodio/límites_acción/bajo | Tensor | (3,) | flotador32 | |
episodio_metadatos/tipo de efector final | Tensor | cadena | ||
episodio_metadatos/fallo | Escalar | booleano | ||
metadatos_episodio/ruta_archivo | Tensor | cadena | ||
episodio_metadatos/n_objetos | Escalar | int64 | ||
metadatos_episodio/núm_pasos | Escalar | int64 | ||
episodio_metadatos/robot_components_seg_ids | Secuencia (escalar) | (Ninguno,) | int64 | |
episodio_metadatos/semilla | Escalar | int64 | ||
episodio_metadatos/éxito | Escalar | booleano | ||
episodio_metadatos/tarea | Tensor | cadena | ||
pasos | Conjunto de datos | |||
pasos/acción | FuncionesDict | |||
pasos/acción/pose0_position | Tensor | (3,) | flotador32 | |
pasos/acción/pose0_rotation | Tensor | (4,) | flotador32 | |
pasos/acción/pose1_posición | Tensor | (3,) | flotador32 | |
pasos/acción/pose1_rotación | Tensor | (4,) | flotador32 | |
pasos/descuento | Escalar | flotador32 | ||
pasos/es_primero | Tensor | booleano | ||
pasos/es_último | Tensor | booleano | ||
pasos/es_terminal | Tensor | booleano | ||
pasos/instrucción_multimodal | Tensor | cadena | ||
pasos/multimodal_instruction_assets | FuncionesDict | |||
pasos/multimodal_instruction_assets/asset_type | Secuencia (tensor) | (Ninguno,) | cadena | |
pasos/multimodal_instruction_assets/frontal_image | Secuencia (tensor) | (Ninguno, 128, 256, 3) | uint8 | |
pasos/multimodal_instruction_assets/frontal_segmentation | Secuencia (tensor) | (Ninguno, 128, 256) | uint8 | |
pasos/multimodal_instruction_assets/imagen | Secuencia (tensor) | (Ninguno, 128, 256, 3) | uint8 | |
pasos/activos_de_instrucción_multimodal/nombre_clave | Secuencia (tensor) | (Ninguno,) | cadena | |
pasos/multimodal_instruction_assets/segmentación | Secuencia (tensor) | (Ninguno, 128, 256) | uint8 | |
pasos/multimodal_instruction_assets/segmentation_obj_info | Secuencia | |||
pasos/multimodal_instruction_assets/segmentation_obj_info/obj_name | Secuencia (tensor) | (Ninguno,) | cadena | |
pasos/multimodal_instruction_assets/segmentation_obj_info/segm_id | Secuencia (escalar) | (Ninguno,) | int64 | |
pasos/multimodal_instruction_assets/segmentation_obj_info/texture_name | Secuencia (tensor) | (Ninguno,) | cadena | |
pasos/observación | FuncionesDict | |||
pasos/observación/ee | Tensor | int64 | ||
pasos/observación/imagen_frontal | Tensor | (128, 256, 3) | uint8 | |
pasos/observación/segmentación_frontal | Tensor | (128, 256) | uint8 | |
pasos/observación/imagen | Tensor | (128, 256, 3) | uint8 | |
pasos/observación/segmentación | Tensor | (128, 256) | uint8 | |
pasos/observación/segmentation_obj_info | FuncionesDict | |||
pasos/observación/segmentación_obj_info/obj_name | Secuencia (tensor) | (Ninguno,) | cadena | |
pasos/observación/segmentation_obj_info/segm_id | Secuencia (escalar) | (Ninguno,) | int64 | |
pasos/observación/segmentación_obj_info/nombre_textura | Secuencia (tensor) | (Ninguno,) | cadena | |
pasos/recompensa | Escalar | flotador32 |
Claves supervisadas (ver documento
as_supervised
):None
Figura ( tfds.show_examples ): no compatible.
Ejemplos ( tfds.as_dataframe ): Falta.
Citación :
@inproceedings{jiang2023vima, title = {VIMA: General Robot Manipulation with Multimodal Prompts}, author = {Yunfan Jiang and Agrim Gupta and Zichen Zhang and Guanzhi Wang and Yongqiang Dou and Yanjun Chen and Li Fei-Fei and Anima Anandkumar and Yuke Zhu and Linxi Fan}, booktitle = {Fortieth International Conference on Machine Learning}, year = {2023}. }