utokyo_saytap_convertido_externalmente_a_rlds

  • Descripción :

A1 caminando, sin RGB

Dividir Ejemplos
'train' 20
  • Estructura de características :
FeaturesDict({
    'episode_metadata': FeaturesDict({
        'file_path': Text(shape=(), dtype=string),
    }),
    'steps': Dataset({
        'action': Tensor(shape=(12,), dtype=float32, description=Robot action, consists of [12x joint positios].),
        'discount': Scalar(shape=(), dtype=float32, description=Discount if provided, default to 1.),
        'is_first': bool,
        'is_last': bool,
        'is_terminal': bool,
        'language_embedding': Tensor(shape=(512,), dtype=float32, description=Kona language embedding. See https://tfhub.dev/google/universal-sentence-encoder-large/5),
        'language_instruction': Text(shape=(), dtype=string),
        'observation': FeaturesDict({
            'desired_pattern': Tensor(shape=(4, 5), dtype=bool, description=Desired foot contact pattern for the 4 legs, the 4 rows are for the front right, front left, rear right and rear left legs, the pattern length is 5 (=0.1s).),
            'desired_vel': Tensor(shape=(3,), dtype=float32, description=Desired velocites. The first 2 are linear velocities along and perpendicular to the heading direction, the 3rd is the desired angular velocity about the yaw axis.),
            'image': Image(shape=(64, 64, 3), dtype=uint8, description=Dummy camera RGB observation.),
            'prev_act': Tensor(shape=(12,), dtype=float32, description=Actions applied in the previous step.),
            'proj_grav_vec': Tensor(shape=(3,), dtype=float32, description=The gravity vector [0, 0, -1] in the robot base frame.),
            'state': Tensor(shape=(30,), dtype=float32, description=Robot state, consists of [3x robot base linear velocity, 3x base angular vel, 12x joint position, 12x joint velocity].),
            'wrist_image': Image(shape=(64, 64, 3), dtype=uint8, description=Dummy wrist camera RGB observation.),
        }),
        'reward': Scalar(shape=(), dtype=float32, description=Reward if provided, 1 on final step for demos.),
    }),
})
  • Documentación de funciones :
Característica Clase Forma tipo D Descripción
FuncionesDict
episodio_metadatos FuncionesDict
metadatos_episodio/ruta_archivo Texto cadena Ruta al archivo de datos original.
pasos Conjunto de datos
pasos/acción Tensor (12,) flotador32 Acción del robot, consta de [12x posiciones articulares].
pasos/descuento Escalar flotador32 Descuento si se proporciona, el valor predeterminado es 1.
pasos/es_primero Tensor booleano
pasos/es_último Tensor booleano
pasos/es_terminal Tensor booleano
pasos/idioma_incrustación Tensor (512,) flotador32 Incorporación del lenguaje Kona. Consulte https://tfhub.dev/google/universal-sentence-encoder-large/5
pasos/instrucción_idioma Texto cadena Instrucción de idiomas.
pasos/observación FuncionesDict
pasos/observación/patrón_deseado Tensor (4, 5) booleano Patrón de contacto de pie deseado para las 4 patas, las 4 filas son para las patas delantera derecha, delantera izquierda, trasera derecha y trasera izquierda, la longitud del patrón es 5 (=0,1 s).
pasos/observación/vel_deseado Tensor (3,) flotador32 Velocidades deseadas. Las primeras 2 son velocidades lineales a lo largo y perpendiculares a la dirección del rumbo, la tercera es la velocidad angular deseada alrededor del eje de guiñada.
pasos/observación/imagen Imagen (64, 64, 3) uint8 Observación RGB con cámara ficticia.
pasos/observación/prev_act Tensor (12,) flotador32 Acciones aplicadas en el paso anterior.
pasos/observación/proj_grav_vec Tensor (3,) flotador32 El vector de gravedad [0, 0, -1] en el marco base del robot.
pasos/observación/estado Tensor (30,) flotador32 El estado del robot consta de [3x velocidad lineal base del robot, 3x velocidad angular base, 12x posición de la articulación, 12x velocidad de la articulación].
pasos/observación/imagen_muñeca Imagen (64, 64, 3) uint8 Maniquí de muñeca con cámara de observación RGB.
pasos/recompensa Escalar flotador32 Recompensa si se proporciona, 1 en el paso final para demostraciones.
@article{saytap2023,
  author = {Yujin Tang and Wenhao Yu and Jie Tan and Heiga Zen and Aleksandra Faust and
Tatsuya Harada},
  title  = {SayTap: Language to Quadrupedal Locomotion},
  eprint = {arXiv:2306.07580},
  url    = {https://saytap.github.io},
  note   = "{https://saytap.github.io}",
  year   = {2023}
}