- Descrição :
Tarefas de manipulação de mesa Franka
Página inicial : https://ut-austin-rpl.github.io/sirius/
Código fonte :
tfds.robotics.rtx.AustinSiriusDatasetConvertedExternallyToRlds
Versões :
-
0.1.0
(padrão): versão inicial.
-
Tamanho do download :
Unknown size
Tamanho do conjunto de dados :
6.55 GiB
Armazenado em cache automaticamente ( documentação ): Não
Divisões :
Dividir | Exemplos |
---|---|
'train' | 559 |
- Estrutura de recursos :
FeaturesDict({
'episode_metadata': FeaturesDict({
'file_path': Text(shape=(), dtype=string),
}),
'steps': Dataset({
'action': Tensor(shape=(7,), dtype=float32),
'action_mode': Tensor(shape=(1,), dtype=float32),
'discount': Scalar(shape=(), dtype=float32),
'intv_label': Tensor(shape=(1,), dtype=float32),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'language_embedding': Tensor(shape=(512,), dtype=float32),
'language_instruction': Text(shape=(), dtype=string),
'observation': FeaturesDict({
'image': Image(shape=(84, 84, 3), dtype=uint8),
'state': Tensor(shape=(8,), dtype=float32),
'state_ee': Tensor(shape=(16,), dtype=float32),
'state_gripper': Tensor(shape=(1,), dtype=float32),
'state_joint': Tensor(shape=(7,), dtype=float32),
'wrist_image': Image(shape=(84, 84, 3), dtype=uint8),
}),
'reward': Scalar(shape=(), dtype=float32),
}),
})
- Documentação de recursos :
Recurso | Aula | Forma | Tipo D | Descrição |
---|---|---|---|---|
RecursosDict | ||||
episódio_metadados | RecursosDict | |||
episódio_metadados/caminho_do_arquivo | Texto | corda | Caminho para o arquivo de dados original. | |
passos | Conjunto de dados | |||
etapas/ação | Tensor | (7,) | float32 | A ação do robô consiste em [3x ee posição relativa, 3x ee rotação relativa, 1x ação da pinça]. |
etapas/modo_ação | Tensor | (1,) | float32 | Tipo de interação. -1: demonstração humana inicial. 1: intervenção. 0: execução autônoma do robô (inclui aula pré-intervenção) |
passos/desconto | Escalar | float32 | Desconto, se fornecido, o padrão é 1. | |
etapas/intv_label | Tensor | (1,) | float32 | O mesmo que action_modes, exceto que os 15 intervalos de tempo anteriores à intervenção são rotulados como -10. |
passos/é_primeiro | Tensor | bool | ||
passos/é_último | Tensor | bool | ||
etapas/is_terminal | Tensor | bool | ||
etapas/idioma_incorporação | Tensor | (512,) | float32 | Incorporação da linguagem Kona. Consulte https://tfhub.dev/google/universal-sentence-encoder-large/5 |
etapas/instrução_idioma | Texto | corda | Instrução de Idiomas. | |
etapas/observação | RecursosDict | |||
passos/observação/imagem | Imagem | (84, 84, 3) | uint8 | Observação RGB da câmera principal. |
etapas/observação/estado | Tensor | (8,) | float32 | O estado padrão do robô consiste em [7x estado da junta do robô, 1x estado da garra]. |
etapas/observação/estado_ee | Tensor | (16,) | float32 | Estado efetor final, representado como matriz de transformação homogênea 4x4 de ee pose. |
etapas/observação/state_gripper | Tensor | (1,) | float32 | Largura de abertura da garra do robô. Varia entre ~0 (fechado) a ~0,077 (aberto) |
etapas/observação/state_joint | Tensor | (7,) | float32 | Informações conjuntas do robô 7-dof. |
passos/observação/imagem_de_pulso | Imagem | (84, 84, 3) | uint8 | Observação RGB da câmera de pulso. |
passos/recompensa | Escalar | float32 | Recompensa, se fornecida, 1 na etapa final para demonstrações. |
Chaves supervisionadas (consulte o documento
as_supervised
):None
Figura ( tfds.show_examples ): Não suportado.
Exemplos ( tfds.as_dataframe ):
- Citação :
@inproceedings{liu2022robot,
title = {Robot Learning on the Job: Human-in-the-Loop Autonomy and Learning During Deployment},
author = {Huihan Liu and Soroush Nasiriany and Lance Zhang and Zhiyao Bao and Yuke Zhu},
booktitle = {Robotics: Science and Systems (RSS)},
year = {2023}
}