- Descripción :
D4RL es un punto de referencia de código abierto para el aprendizaje por refuerzo fuera de línea. Proporciona entornos y conjuntos de datos estandarizados para algoritmos de entrenamiento y evaluación comparativa.
Los conjuntos de datos siguen el formato RLDS para representar pasos y episodios.
Página de inicio : https://sites.google.com/view/d4rl-anonymous
Código fuente :
tfds.d4rl.d4rl_adroit_pen.D4rlAdroitPen
Versiones :
-
1.0.0
: versión inicial. -
1.1.0
(predeterminado): agregado is_last.
-
Claves supervisadas (ver documento
as_supervised
):None
Figura ( tfds.show_examples ): no compatible.
Citación :
@misc{fu2020d4rl,
title={D4RL: Datasets for Deep Data-Driven Reinforcement Learning},
author={Justin Fu and Aviral Kumar and Ofir Nachum and George Tucker and Sergey Levine},
year={2020},
eprint={2004.07219},
archivePrefix={arXiv},
primaryClass={cs.LG}
}
d4rl_adroit_pen/v0-human (configuración predeterminada)
Descripción de la configuración : vea más detalles sobre la tarea y sus versiones en https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit
Tamaño de descarga :
1.94 MiB
Tamaño del conjunto de datos :
2.52 MiB
Almacenamiento en caché automático ( documentación ): Sí
Divisiones :
Dividir | Ejemplos |
---|---|
'train' | 50 |
- Estructura de características :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Documentación de funciones :
Característica | Clase | Forma | tipo D | Descripción |
---|---|---|---|---|
FuncionesDict | ||||
pasos | Conjunto de datos | |||
pasos/acción | Tensor | (24,) | flotador32 | |
pasos/descuento | Tensor | flotador32 | ||
pasos/información | FuncionesDict | |||
pasos/información/qpos | Tensor | (30,) | flotador32 | |
pasos/información/qvel | Tensor | (30,) | flotador32 | |
pasos/es_primero | Tensor | booleano | ||
pasos/es_último | Tensor | booleano | ||
pasos/es_terminal | Tensor | booleano | ||
pasos/observación | Tensor | (45,) | flotador32 | |
pasos/recompensa | Tensor | flotador32 |
- Ejemplos ( tfds.as_dataframe ):
d4rl_adroit_pen/v0-clonado
Descripción de la configuración : vea más detalles sobre la tarea y sus versiones en https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit
Tamaño de descarga :
292.85 MiB
Tamaño del conjunto de datos :
252.55 MiB
Almacenamiento en caché automático ( documentación ): No
Divisiones :
Dividir | Ejemplos |
---|---|
'train' | 5.023 |
- Estructura de características :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float64,
'infos': FeaturesDict({
'qpos': Tensor(shape=(30,), dtype=float64),
'qvel': Tensor(shape=(30,), dtype=float64),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float64),
'reward': float64,
}),
})
- Documentación de funciones :
Característica | Clase | Forma | tipo D | Descripción |
---|---|---|---|---|
FuncionesDict | ||||
pasos | Conjunto de datos | |||
pasos/acción | Tensor | (24,) | flotador32 | |
pasos/descuento | Tensor | flotador64 | ||
pasos/información | FuncionesDict | |||
pasos/información/qpos | Tensor | (30,) | flotador64 | |
pasos/información/qvel | Tensor | (30,) | flotador64 | |
pasos/es_primero | Tensor | booleano | ||
pasos/es_último | Tensor | booleano | ||
pasos/es_terminal | Tensor | booleano | ||
pasos/observación | Tensor | (45,) | flotador64 | |
pasos/recompensa | Tensor | flotador64 |
- Ejemplos ( tfds.as_dataframe ):
d4rl_adroit_pen/v0-experto
Descripción de la configuración : vea más detalles sobre la tarea y sus versiones en https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit
Tamaño de descarga :
250.13 MiB
Tamaño del conjunto de datos :
344.41 MiB
Almacenamiento en caché automático ( documentación ): No
Divisiones :
Dividir | Ejemplos |
---|---|
'train' | 5.000 |
- Estructura de características :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_logstd': Tensor(shape=(24,), dtype=float32),
'action_mean': Tensor(shape=(24,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Documentación de funciones :
Característica | Clase | Forma | tipo D | Descripción |
---|---|---|---|---|
FuncionesDict | ||||
pasos | Conjunto de datos | |||
pasos/acción | Tensor | (24,) | flotador32 | |
pasos/descuento | Tensor | flotador32 | ||
pasos/información | FuncionesDict | |||
pasos/información/action_logstd | Tensor | (24,) | flotador32 | |
pasos/información/acción_media | Tensor | (24,) | flotador32 | |
pasos/información/qpos | Tensor | (30,) | flotador32 | |
pasos/información/qvel | Tensor | (30,) | flotador32 | |
pasos/es_primero | Tensor | booleano | ||
pasos/es_último | Tensor | booleano | ||
pasos/es_terminal | Tensor | booleano | ||
pasos/observación | Tensor | (45,) | flotador32 | |
pasos/recompensa | Tensor | flotador32 |
- Ejemplos ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-humano
Descripción de la configuración : vea más detalles sobre la tarea y sus versiones en https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit
Tamaño de descarga :
1.95 MiB
Tamaño del conjunto de datos :
2.60 MiB
Almacenamiento en caché automático ( documentación ): Sí
Divisiones :
Dividir | Ejemplos |
---|---|
'train' | 25 |
- Estructura de características :
FeaturesDict({
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Documentación de funciones :
Característica | Clase | Forma | tipo D | Descripción |
---|---|---|---|---|
FuncionesDict | ||||
pasos | Conjunto de datos | |||
pasos/acción | Tensor | (24,) | flotador32 | |
pasos/descuento | Tensor | flotador32 | ||
pasos/información | FuncionesDict | |||
pasos/información/oriente_deseado | Tensor | (4,) | flotador32 | |
pasos/información/qpos | Tensor | (30,) | flotador32 | |
pasos/información/qvel | Tensor | (30,) | flotador32 | |
pasos/es_primero | Tensor | booleano | ||
pasos/es_último | Tensor | booleano | ||
pasos/es_terminal | Tensor | booleano | ||
pasos/observación | Tensor | (45,) | flotador32 | |
pasos/recompensa | Tensor | flotador32 |
- Ejemplos ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-clonado
Descripción de la configuración : vea más detalles sobre la tarea y sus versiones en https://github.com/rail-berkeley/d4rl/wiki/Tasks#adroit
Tamaño de descarga :
147.89 MiB
Tamaño del conjunto de datos :
1.43 GiB
Almacenamiento en caché automático ( documentación ): No
Divisiones :
Dividir | Ejemplos |
---|---|
'train' | 3.755 |
- Estructura de características :
FeaturesDict({
'algorithm': string,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(45, 256), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(256,), dtype=float32),
'weight': Tensor(shape=(256, 256), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(256, 24), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Documentación de funciones :
Característica | Clase | Forma | tipo D | Descripción |
---|---|---|---|---|
FuncionesDict | ||||
algoritmo | Tensor | cadena | ||
política | FuncionesDict | |||
política/fc0 | FuncionesDict | |||
política/fc0/sesgo | Tensor | (256,) | flotador32 | |
política/fc0/peso | Tensor | (45, 256) | flotador32 | |
política/fc1 | FuncionesDict | |||
política/fc1/sesgo | Tensor | (256,) | flotador32 | |
política/fc1/peso | Tensor | (256, 256) | flotador32 | |
política/último_fc | FuncionesDict | |||
política/last_fc/sesgo | Tensor | (24,) | flotador32 | |
política/last_fc/peso | Tensor | (256, 24) | flotador32 | |
política/no linealidad | Tensor | cadena | ||
política/distribución_salida | Tensor | cadena | ||
pasos | Conjunto de datos | |||
pasos/acción | Tensor | (24,) | flotador32 | |
pasos/descuento | Tensor | flotador32 | ||
pasos/información | FuncionesDict | |||
pasos/información/oriente_deseado | Tensor | (4,) | flotador32 | |
pasos/información/qpos | Tensor | (30,) | flotador32 | |
pasos/información/qvel | Tensor | (30,) | flotador32 | |
pasos/es_primero | Tensor | booleano | ||
pasos/es_último | Tensor | booleano | ||
pasos/es_terminal | Tensor | booleano | ||
pasos/observación | Tensor | (45,) | flotador32 | |
pasos/recompensa | Tensor | flotador32 |
- Ejemplos ( tfds.as_dataframe ):
d4rl_adroit_pen/v1-experto
Tamaño de descarga :
249.90 MiB
Tamaño del conjunto de datos :
548.47 MiB
Almacenamiento en caché automático ( documentación ): No
Divisiones :
Dividir | Ejemplos |
---|---|
'train' | 5.000 |
- Estructura de características :
FeaturesDict({
'algorithm': string,
'policy': FeaturesDict({
'fc0': FeaturesDict({
'bias': Tensor(shape=(64,), dtype=float32),
'weight': Tensor(shape=(64, 45), dtype=float32),
}),
'fc1': FeaturesDict({
'bias': Tensor(shape=(64,), dtype=float32),
'weight': Tensor(shape=(64, 64), dtype=float32),
}),
'last_fc': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(24, 64), dtype=float32),
}),
'last_fc_log_std': FeaturesDict({
'bias': Tensor(shape=(24,), dtype=float32),
'weight': Tensor(shape=(24, 64), dtype=float32),
}),
'nonlinearity': string,
'output_distribution': string,
}),
'steps': Dataset({
'action': Tensor(shape=(24,), dtype=float32),
'discount': float32,
'infos': FeaturesDict({
'action_log_std': Tensor(shape=(24,), dtype=float32),
'action_mean': Tensor(shape=(24,), dtype=float32),
'desired_orien': Tensor(shape=(4,), dtype=float32),
'qpos': Tensor(shape=(30,), dtype=float32),
'qvel': Tensor(shape=(30,), dtype=float32),
}),
'is_first': bool,
'is_last': bool,
'is_terminal': bool,
'observation': Tensor(shape=(45,), dtype=float32),
'reward': float32,
}),
})
- Documentación de funciones :
Característica | Clase | Forma | tipo D | Descripción |
---|---|---|---|---|
FuncionesDict | ||||
algoritmo | Tensor | cadena | ||
política | FuncionesDict | |||
política/fc0 | FuncionesDict | |||
política/fc0/sesgo | Tensor | (64,) | flotador32 | |
política/fc0/peso | Tensor | (64, 45) | flotador32 | |
política/fc1 | FuncionesDict | |||
política/fc1/sesgo | Tensor | (64,) | flotador32 | |
póliza/fc1/peso | Tensor | (64, 64) | flotador32 | |
política/último_fc | FuncionesDict | |||
política/last_fc/sesgo | Tensor | (24,) | flotador32 | |
política/last_fc/peso | Tensor | (24, 64) | flotador32 | |
política/last_fc_log_std | FuncionesDict | |||
política/last_fc_log_std/sesgo | Tensor | (24,) | flotador32 | |
política/last_fc_log_std/peso | Tensor | (24, 64) | flotador32 | |
política/no linealidad | Tensor | cadena | ||
política/distribución_salida | Tensor | cadena | ||
pasos | Conjunto de datos | |||
pasos/acción | Tensor | (24,) | flotador32 | |
pasos/descuento | Tensor | flotador32 | ||
pasos/información | FuncionesDict | |||
pasos/información/action_log_std | Tensor | (24,) | flotador32 | |
pasos/información/acción_media | Tensor | (24,) | flotador32 | |
pasos/información/oriente_deseado | Tensor | (4,) | flotador32 | |
pasos/información/qpos | Tensor | (30,) | flotador32 | |
pasos/información/qvel | Tensor | (30,) | flotador32 | |
pasos/es_primero | Tensor | booleano | ||
pasos/es_último | Tensor | booleano | ||
pasos/es_terminal | Tensor | booleano | ||
pasos/observación | Tensor | (45,) | flotador32 | |
pasos/recompensa | Tensor | flotador32 |
- Ejemplos ( tfds.as_dataframe ):